Более 2600 технологических лидеров и исследователей подписали открытое письмо, призывающее к временной «паузе» в дальнейшем развитии искусственного интеллекта (ИИ), опасаясь «серьезных рисков для общества и человечества».
Генеральный директор Tesla Илон Маск, соучредитель Apple Стив Возняк и множество руководителей, технических директоров и исследователей в области искусственного интеллекта были среди тех, кто подписал письмо, автором которого 22 марта был аналитический центр США «Институт будущего жизни» (FOLI).
Институт призвал все компании, занимающиеся ИИ, «немедленно приостановить» обучение систем ИИ, которые более мощны, чем GPT-4, как минимум на шесть месяцев, разделяя опасения, что «конкурентный интеллект между людьми может представлять серьезную угрозу для общества и человечества», среди прочего. :

«Продвинутый искусственный интеллект может привести к глубоким изменениям в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит», — говорится в письме института.
GPT-4 — это последняя версия чат-бота OpenAI на базе искусственного интеллекта, который был выпущен 14 марта. На сегодняшний день он сдал одни из самых строгих школьных и юридических экзаменов в США в пределах 90-го процентиля. Предполагается, что он в 10 раз более продвинут, чем исходная версия ChatGPT.
Между фирмами, занимающимися искусственным интеллектом, идет «вышедшая из-под контроля гонка» за разработку более мощного искусственного интеллекта, который «никто – даже их создатели – не может понять, предсказать или надежно контролировать», заявил FOLI.

Среди главных проблем было то, могут ли машины наводнить информационные каналы потенциально «пропагандой и ложью», и смогут ли машины «автоматизировать» все возможности трудоустройства.
FOLI пошел еще дальше в этих опасениях, предположив, что предпринимательские усилия этих компаний, занимающихся искусственным интеллектом, могут привести к экзистенциальной угрозе:
«Должны ли мы развивать нечеловеческий разум, который в конечном итоге сможет превзойти нас численностью, перехитрить, устареть и заменить нас? Стоит ли нам рисковать потерей контроля над нашей цивилизацией?»
«Такие решения не должны делегироваться неизбранным технологическим лидерам», — говорится в письме.

Институт также согласился с недавним заявлением основателя OpenAI Сэма Альтмана о том, что перед обучением будущих систем ИИ может потребоваться независимая проверка.
Альтман в своем сообщении в блоге от 24 февраля подчеркнул необходимость подготовки к роботам с искусственным общим интеллектом (AGI) и искусственным сверхинтеллектом (ASI).
Однако не все эксперты в области искусственного интеллекта поспешили подписать петицию. Бен Герцель, генеральный директор SingularityNET, объяснил в ответе в Твиттере от 29 марта Гэри Маркусу, автору Rebooting.AI, что модели изучения языка (LLM) не станут AGI, в отношении которых на сегодняшний день существует мало разработок.
Вместо этого он сказал, что исследования и разработки таких вещей, как биологическое оружие и ядерное оружие, следует замедлить:

В дополнение к моделям изучения языка, таким как ChatGPT, технология Deep Fake на базе искусственного интеллекта использовалась для создания убедительных изображений, аудио и видео-мистификаций. Эта технология также использовалась для создания произведений искусства, генерируемых искусственным интеллектом, при этом высказывались некоторые опасения по поводу того, может ли она в определенных случаях нарушать законы об авторском праве.
Генеральный директор Galaxy Digital Майк Новограц недавно сказал инвесторам, что он был шокирован тем, какое внимание регулирующие органы уделяют криптовалюте, в то время как искусственному интеллекту уделяется мало внимания.
«Когда я думаю об ИИ, меня шокирует то, что мы так много говорим о регулировании криптовалют и ничего о регулировании ИИ. Я имею в виду, я думаю, что правительство все перевернуло с ног на голову», — высказал он свое мнение во время собрания акционеров 28 марта.
FOLI утверждает, что, если пауза в развитии ИИ не будет введена быстро, правительствам следует ввести мораторий.
«Эта пауза должна быть публичной и поддающейся проверке и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий», — говорится в докладе.


