Anthropic, Google, Microsoft и OpenAI назначили Криса Мезероля первым исполнительным директором Frontier Model Forum. Отраслевой консорциум занимается продвижением безопасного и этического развития передовых моделей искусственного интеллекта во всем мире. Одновременно Форум учредил Фонд безопасности искусственного интеллекта в размере более 10 миллионов долларов. Цель фонда — способствовать прогрессу в исследованиях безопасности ИИ.
Исполнительный директор Крис Мезероль имеет обширный опыт в области технологической политики и управления новыми технологиями. До своего назначения он занимал должность директора Инициативы по искусственному интеллекту и новым технологиям в Брукингском институте. В своем новом качестве Мезероль будет возглавлять усилия по продвижению исследований в области безопасности ИИ, выявлять лучшие практики для безопасной разработки моделей ИИ, распространять знания среди заинтересованных сторон и поддерживать инициативы, которые используют ИИ для решения социальных проблем.
«Самые мощные модели ИИ имеют огромные перспективы для общества, но чтобы реализовать их потенциал, нам необходимо лучше понимать, как их безопасно разрабатывать и оценивать. Я очень рад принять этот вызов на Форуме моделей Frontier».
— сказал Мезероль.
Фонд безопасности ИИ возник в ответ на быстрое развитие возможностей ИИ за последний год, что потребовало дальнейших научных исследований в области безопасности ИИ. Этот фонд, созданный в результате сотрудничества Frontier Model Forum и благотворительных партнеров, будет оказывать поддержку независимым исследователям по всему миру, связанным с академическими учреждениями, исследовательскими организациями и стартапами.
Основными участниками этой инициативы являются Anthropic, Google, Microsoft и OpenAI, а также такие благотворительные организации, как Фонд Патрика Дж. Макговерна, Фонд Дэвида и Люсиль Паккард, Эрика Шмидта и Яана Таллинна. Их совокупные взносы превышают 10 миллионов долларов США с учетом дополнительных пожертвований от других партнеров.
Ранее в этом году члены Форума взяли на себя добровольные обязательства в Белом доме, в том числе разрешили третьим лицам обнаруживать и сообщать об уязвимостях в их системах искусственного интеллекта. Фонд безопасности ИИ соответствует этому обязательству, предлагая внешним сообществам финансирование для тщательного изучения передовых систем ИИ. Разнообразие мнений и точек зрения обогатит глобальный дискурс о безопасности ИИ и расширит общую базу знаний в области ИИ.
Повышение безопасности и сотрудничества в области искусственного интеллекта
Фонд безопасности ИИ в первую очередь концентрируется на поддержке разработки новых методов оценки и подходов «красной команды» для моделей ИИ с целью выявления потенциальных опасностей. Красная команда — это структурированный процесс тщательного изучения систем искусственного интеллекта с целью выявления вредоносных возможностей, результатов или инфраструктурных угроз. Увеличение финансирования в этой области может повысить стандарты безопасности и предоставить ценную информацию о смягчении проблем, создаваемых системами искусственного интеллекта.
Более того, в ближайшее время Фонд будет искать предложения по исследованиям и будет управляться Институтом Меридиан при участии консультативного комитета, в который входят независимые эксперты, специалисты в области искусственного интеллекта и эксперты по грантам.
В настоящее время осуществляется ответственный процесс раскрытия информации, который позволяет лабораториям Frontier AI обмениваться информацией об уязвимостях и опасных возможностях в моделях Frontier AI, а также об их решениях. Некоторые компании Форума уже выявили такие проблемы в контексте национальной безопасности, что послужило примером для других лабораторий при внедрении процедур ответственного раскрытия информации.
Заглядывая в будущее, Frontier Model Forum планирует в ближайшие месяцы создать Консультативный совет, которому будет поручено определять стратегические приоритеты и представлять различные экспертные знания и точки зрения. Форум будет регулярно выпускать обновления, включая добавление новых участников. Одновременно с этим Фонд безопасности ИИ объявит свой первый конкурс заявок, вскоре после этого будут выделены гранты. Кроме того, Форум продолжит публиковать технические выводы по мере их поступления.
Главной целью Форума является сотрудничество с Крисом Мезеролем и расширение взаимодействия с более широким исследовательским сообществом. Сюда входит партнерство с такими организациями, как Партнерство по искусственному интеллекту, MLCommons и другими ведущими НПО, государственными учреждениями и многонациональными организациями. Вместе они стремятся использовать потенциал ИИ, обеспечивая при этом его безопасную и этичную разработку и использование.
Связанный: 5 ключевых идей о будущем искусственного интеллекта и LLM от Дарио Амодеи, генерального директора Anthropic
Сообщение Anthropic, Google, Microsoft и OpenAI назначают исполнительного директора Frontier Model Forum и открывают фонд безопасности искусственного интеллекта стоимостью 10 миллионов долларов впервые появилось на Metaverse Post.
