Лидеры ИИ предупреждают о «риске исчезновения» в открытом письме

Центр безопасности искусственного интеллекта (CAIS) недавно опубликовал заявление, подписанное видными деятелями в области искусственного интеллекта, в котором подчеркивается потенциальная опасность, которую эта технология представляет для человечества.

В заявлении утверждается, что «снижение риска исчезновения ИИ должно быть глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война».

Заявление подписали известные исследователи и лауреаты премии Тьюринга, в том числе Джеффри Хинтон и Йошуа Бенджио, а также руководители OpenAI и DeepMind, такие как Сэм Альтман, Илья Суцкевер и Демис Хассабис.

Цель письма CAIS — инициировать обсуждение неотложных рисков, связанных с ИИ. Письмо вызвало как поддержку, так и критику в более широкой отрасли. Оно следует за предыдущим открытым письмом, подписанным Илоном Маском, Стивом Возняком и более чем 1000 другими экспертами, которые призвали остановить «выходящее из-под контроля» развитие искусственного интеллекта.

Несмотря на свою краткость, недавнее заявление не содержит конкретных подробностей определения ИИ и не предлагает конкретных стратегий по снижению рисков. Однако CAIS уточнил в пресс-релизе, что его целью является создание механизмов защиты и институтов, которые эффективно управляют рисками ИИ.

Генеральный директор OpenAI Сэм Альтман активно сотрудничает с мировыми лидерами, выступая за регулирование ИИ. Во время недавнего выступления в Сенате Альтман неоднократно призывал законодателей жестко регулировать отрасль. Заявление CAIS согласуется с его усилиями по повышению осведомленности об опасностях ИИ.

Хотя открытое письмо привлекло внимание, некоторые эксперты по этике ИИ раскритиковали тенденцию подобных заявлений.

Доктор Саша Луччиони, исследователь машинного обучения, предполагает, что упоминание гипотетических рисков ИИ наряду с реальными рисками, такими как пандемии и изменение климата, повышает доверие к первым, одновременно отвлекая внимание от насущных проблем, таких как предвзятость, юридические проблемы и согласие.

Дэниел Джеффрис, писатель и футуролог, утверждает, что обсуждение рисков ИИ превратилось в статусную игру, в которой люди присоединяются к победе, не неся при этом никаких реальных затрат.

Критики утверждают, что подписание открытых писем о будущих угрозах позволяет тем, кто несет ответственность за нынешний вред ИИ, смягчить свою вину, игнорируя при этом этические проблемы, связанные с уже используемыми технологиями ИИ.

Однако CAIS, некоммерческая организация со штаб-квартирой в Сан-Франциско, по-прежнему сосредоточена на снижении социальных рисков, связанных с ИИ, посредством технических исследований и пропаганды. Организация была основана экспертами с опытом работы в области компьютерных наук и сильным интересом к безопасности ИИ.

В то время как некоторые исследователи опасаются появления сверхразумного ИИ, который превосходит человеческие возможности и представляет собой экзистенциальную угрозу, другие утверждают, что подписание открытых писем о гипотетических сценариях конца света отвлекает от существующих этических дилемм, связанных с ИИ. Они подчеркивают необходимость решения реальных проблем, которые сегодня создает ИИ, таких как слежка, предвзятые алгоритмы и нарушение прав человека.

Балансирование развития ИИ с ответственным внедрением и регулированием остается важнейшей задачей как для исследователей, политиков, так и для лидеров отрасли.