Источник изображения: создано инструментом Unbounded AI.

Через две недели после выпуска GPT-4 в сети было опубликовано открытое письмо, подписанное Илоном Маском и тысячами людей из технологической индустрии. Открытое письмо призывает все лаборатории искусственного интеллекта немедленно приостановить обучение систем искусственного интеллекта мощнее GPT-4 как минимум на 6 месяцев.

Это открытое письмо подписали соучредитель Apple Стив Возняк, лауреат премии Тьюринга Йошуа Бенджио и соавтор учебника по искусственному интеллекту «Искусственный интеллект: современный подход» Стюарт Рассел и другие известные деятели технологий.

В открытом письме утверждается, что «развитый ИИ может означать глубокие изменения в истории жизни на Земле, и мы должны инвестировать соразмерное внимание и ресурсы в его планирование и управление». и разработчики не могут этого понять. Прогнозировать и надежно контролировать.

В открытом письме также упоминается, что современные системы искусственного интеллекта теперь становятся конкурентоспособными по сравнению с людьми в решении общих задач. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты положительны, а их риски контролируемы».

По идее открытого письма, обучение систем ИИ мощнее GPT-4 должно быть приостановлено на 6 месяцев. Во время этой паузы лаборатории искусственного интеллекта и независимые эксперты должны работать вместе над разработкой и внедрением общего набора протоколов безопасности для передового проектирования и разработки искусственного интеллекта при условии тщательного аудита и контроля со стороны независимых внешних экспертов.

Эти протоколы должны гарантировать, что их системы безопасны и вне разумных сомнений. Это не означает мораторий на развитие ИИ в целом, а просто шаг назад от опасной гонки за более крупными и непредсказуемыми моделями «черного ящика».

Письмо было размещено на веб-сайте Института будущего жизни, который финансируется в первую очередь Фондом Маска, Founders Pledge и Фондом сообщества Кремниевой долины, и его миссия — направлять преобразующие технологии в сторону от экстремальных, крупномасштабных рисков. и к жизни, полной благословений.

Еще в 2017 году Институт будущего жизни собрал более 100 идейных лидеров и исследователей в области экономики, права, этики и философии, чтобы собраться вместе в Калифорнии, чтобы обсудить и сформулировать принципы полезного искусственного интеллекта. В итоге они сформулировали 23 принципа искусственного интеллекта Asilomar, которые считаются важными принципами управления искусственным интеллектом. Первый из них: «Целью исследований искусственного интеллекта должно быть установление полезного, а не беспорядочного интеллекта».

Большинство технологов, подписавших это открытое письмо, обеспокоены тем, что ИИ развивается слишком быстро, соответствующий надзор и законы не поспевают за ним, и даже у изобретателей нет эффективных методов контроля. В таких условиях неограниченное использование ИИ может повлечь за собой системные риски в случае возникновения проблем.

По данным журнала Time, Саймон Кампос, подписавший открытое письмо и генеральный директор стартапа по безопасности искусственного интеллекта SaferAI, заявил, что изобретатели систем ИИ не знают точно, как они работают и что они из себя представляют, поэтому неспособность управлять системными рисками. Изобретатель имеет возможность это сделать, но не знает, как ограничить поведение ИИ.

«Что мы делаем сейчас?» — спросил Кампос. «Мы работаем на полной скорости, чтобы расширить эти системы до беспрецедентного уровня возможностей и оказать преобразующее воздействие на общество. Мы должны замедлить развитие этих систем и позволить обществу адаптироваться».

Беспокойство Маска: искусственный интеллект, который невозможно отключить

Маск долгое время с опаской относился к искусственному интеллекту. Еще в 2014 году Маск публично заявил в интервью, что нам следует быть очень осторожными в отношении искусственного интеллекта. интеллект. . «С помощью искусственного интеллекта люди вызывают дьявола», — сказал Маск.

Он также сказал: «Я все больше склоняюсь к мысли, что должен быть какой-то регулирующий надзор, возможно, на национальном и международном уровне, просто для того, чтобы убедиться, что мы не делаем чего-то действительно глупого».

Маск не просто говорит о проблемах безопасности ИИ. В начале 2015 года Маск пожертвовал 7 миллионов долларов США Институту будущего жизни на проведение исследований, направленных на то, чтобы искусственный интеллект принес пользу человечеству. Большинство грантополучателей занимаются исследованиями в области этики, управления и безопасности ИИ. Многие грантополучатели, такие как Стюарт Рассел, участвовали в подписании этого открытого письма.

Будучи одним из первых инвесторов DeepMind, Маск, похоже, неоднозначно относится к ИИ. Но он утверждал, что его инвестиции были сделаны не с точки зрения возврата инвестиций, а просто хотели обратить внимание на развитие искусственного интеллекта, поскольку это может привести к опасным результатам. По его словам, есть некоторые ужасные последствия, и мы должны работать над тем, чтобы последствия были хорошими, а не плохими. "

Плохой результат не в том, что роботы восстают и уничтожают людей, как показано в фильме. Вместо этого эксперты беспокоятся не о сознании роботов, а об их способностях. ИИ обладает мощной способностью достигать своих целей, но если он выйдет из-под контроля или отклонится от запланированного сценария использования, это может нанести необратимый ущерб.

Важная личность, подписавшая открытое письмо, лауреат премии Тьюринга Джошуа Бенджио, известный как «Крестный отец искусственного интеллекта», всегда был обеспокоен злоупотреблением искусственным интеллектом. В 2018 году Бенджио был одним из тысяч исследователей искусственного интеллекта, подписавших обязательство противостоять разработке ИИ-оружия. Он призвал правительства регулировать исследования в области искусственного интеллекта и остановить разработку смертоносных роботов.

Оружие ИИ — крайний пример злоупотребления роботами. Оружие ИИ более эффективно, чем традиционное оружие, при использовании на поле боя. Однако, как только оружие искусственного интеллекта выйдет из-под контроля, проблемы, вызванные оружием искусственного интеллекта, станут более серьезными. На поле боя, чтобы не дать сбоям при простом вмешательстве, нынешнее оружие ИИ часто проектируется таким образом, чтобы его было трудно отключить напрямую. Представьте себе трагические последствия, если высокоэффективное оружие искусственного интеллекта, запрограммированное для нападения на людей, случайно попадет в гражданские районы.

На самом деле, как отключить ИИ — проблема, которая беспокоит многих экспертов по сигнатурам.

Но если применение ИИ будет развиваться слишком быстро, его отключение может потребовать огромных затрат и стать затруднительным. Маск предположил, что если алгоритм выйдет из-под контроля в системе, менеджеры смогут его обнаружить. Но если этой системой управляет крупный ИИ, мы, возможно, не сможем найти точку, в которой она выйдет из-под контроля, или у нас может не быть полномочий остановить работу всего большого ИИ. Простое обслуживание может стать проблемой.

Вот почему ИИ нуждается в большем регулировании, а технологии должны быть более демократичными, а не концентрироваться в руках крупных компаний.

Чтобы не допустить концентрации власти ИИ в руках крупных компаний, особенно Google DeepMind, Маск и Сэм Альтман основали OpenAI с целью демократизации мощи искусственного интеллекта и уменьшения возможности ИИ. будучи монополизированным.

Это несколько иронично. GPT-4, созданный OpenAI, — это именно то, против чего сейчас выступает Маск. Всего несколько дней назад у Маска произошла словесная ссора с генеральным директором OpenAI Сэмом Альтманом.

Стоп, «Давай выровняемся».

Помимо беспокойства этих больших парней, среди широкой общественности существует давний страх перед ИИ.

Среди них есть страх перед сверхразумным компьютером HAL 9000, обретшим сознание в научно-фантастическом фильме «2001: Космическая одиссея», а также более практический страх перед хаосом и плохими ситуациями, которые могут быть вызваны ИИ управляет миром.

В этом открытом письме одним из неоднократно цитируемых материалов была книга-бестселлер «Проблема выравнивания», получившая высокую оценку многих громких имен в области искусственного интеллекта, в том числе руководителей Microsoft. Соучредитель Института будущего жизни (FLI), опубликовавший открытое письмо, публично похвалил книгу: «Она полна удивительных открытий, неожиданных препятствий, гениальных решений и множества сложных вопросов о природе». наш вид». И самая большая проблема, обсуждаемая в этой книге, — это этика искусственного интеллекта.

Одной из простейших этических проблем искусственного интеллекта является проблема скрепок. Если роботу приказать сделать как можно больше скрепок, он исчерпает все ресурсы на земле и будет неустанно делать скрепки как можно дольше, потому что выполнение этой задачи взаимосвязано. Если у него нет противоречия с моральным кодексом, то все, что он может делать, это выполнять задания. За долгую историю человечества большое количество моральных норм, нашего трепета и страха укрепились в нашей культуре и глубоко укоренились в сознании каждого. Иногда мы сами этого не осознаем, и машина не пережила такой долгой истории. Эволюция детей, как и ребенка, рожденного со сверхспособностями, сама по себе становится риском.

Поэтому Брайан Кристиан, автор книги «Проблема выравнивания» и автор бестселлеров, который сейчас является приглашенным научным сотрудником Калифорнийского университета в Беркли, считает, что необходимо тщательно, всесторонне и в режиме реального времени создавать искусственный интеллект. этика и человеческая этика согласованы. В этом смысле это открытое письмо похоже на то, как отдел на большом заводе просит сотрудников прекратить то, что они делают, и пойти в конференц-зал: «Давайте выровняемся».

Конечно, помимо обсуждения этих, казалось бы, далеких вопросов, «Проблемы расстановки» также обсуждают и проблемы, которые происходят в настоящее время.

Штат в Соединенных Штатах использует компьютерную программу для оценки вероятности повторного совершения преступниками преступлений, затем принимает решение об освобождении под залог и условно-досрочном освобождении, а также распределяет суммы залога. Однако в системе произошло что-то странное. Борден, который был чернокожим, был отнесен к категории высокого риска, а Платт, который был белым, был оценен как низкий риск. за любое преступление в течение двух лет, а Платт был приговорен к восьми годам тюремного заключения за грабеж и кражу. Очевидно, что в рамках больших данных расовая дискриминация среди людей также была перенесена в ИИ — но ключевая проблема в том, что все думают, что они новорожденные младенцы, и это справедливо. В «Вопросах выравнивания» автор также упомянул гендерную дискриминацию при приеме на работу. Ни у кого нет настроек ИИ. Однако при больших данных дискриминация естественным образом имеет место.

Искусственный интеллект, основанный на больших данных, может усилить широко игнорируемые проблемы дискриминации и неравенства в нашей этнической группе. Как только эти проблемы проникнут в систему, не будучи замеченными или не считающимися тривиальными, они закрепятся. Это будет очень печальный конец.

Поэтому в комментариях читателей к книге «Проблемы мировоззрения» многие упоминали людей – ИИ усиливает существующие проблемы человечества, и, главное, в руки каких людей ИИ будет отдан?

Почти нет сомнений в том, что ИИ приведет к огромному росту производительности, но, как и в случае с предыдущей информационной революцией, этот мощный инструмент труда приведет к дальнейшей концентрации богатства - с 1980 года по сегодняшний день 1% самых богатых людей. населения выросла с 10% до почти 20%, в то время как доля доходов нижних 50% упала с 20% в 1980 году до 12%. Никто не представляет, как будут выглядеть эти данные через 40 лет после запуска GPT? Более того, это более эффективный инструмент повышения производительности капитала.

Еще в феврале этого года профессор Массачусетского технологического института Дарон Аджемоглу, который уже давно обеспокоен проблемами искусственного интеллекта, опубликовал статью, в которой упоминается следующий сценарий: компании увольняют людей из службы поддержки клиентов, большое количество людей потеряли работу, а потребителям остается только смириться с этим. красноречивый сотрудник. Но служба поддержки клиентов-роботов не может решить никаких проблем. Такой подход «лишит возможностей и возможностей сотрудников и ухудшит качество обслуживания потребителей, в конечном итоге разочаровывая большинство инвесторов. Мы не должны поступать так».

В этом открытом письме люди выражают обеспокоенность по поводу будущего искусственного интеллекта. В своем открытом письме Гейтс также упомянул о необходимости обратить внимание на проблему равенства в эпоху искусственного интеллекта: рыночные силы естественным образом этого не сделают. производить продукты, которые помогают беднейшим людям. С продуктами и услугами искусственного интеллекта обратная возможность будет больше.

Еще 16 марта Альтман также с обеспокоенностью отметил, что «программное обеспечение, способное думать и учиться, будет выполнять все больше и больше работы, которую люди выполняют сейчас. Больше власти будет передано от труда к капиталу. большинство людей в конечном итоге окажутся в худшем положении, чем сейчас».

Поэтому Альтман отметил, что необходимо ввести новую систему налогообложения капитала, а не труда, чтобы больше людей могли воспользоваться плодами этой революции искусственного интеллекта.

В настоящее время ИИ потребуется некоторое время, чтобы стать инфраструктурой человеческой жизни, но это время может быть на исходе. После появления GPT-4 возможности крупномасштабного ИИ резко возросли в «гонке вооружений». Приложения ИИ вскоре могут быть популяризированы во всех аспектах жизни, но сейчас нет времени, чтобы помочь ИИ проверить безопасность, понять потребности человека. и установить нормативные стандарты. Вот почему эксперты, стоящие за этим открытым письмом, призывают к мораторию на крупномасштабные исследования в области ИИ.

Возможно, как сказал главный научный сотрудник Microsoft Эрик Хорвиц: «Сегодня в области искусственного интеллекта, который маячит на горизонте, некоторые вещи известны, некоторые неизвестны, а середина — это дверь, оставленная для нас, чтобы наблюдать за миром».