Опадання листя в OpenAI! Зізнання від засновника
ChatGPT втрачає експертів із безпеки ШІ. Засновники OpenAI залишають компанію. Ось деталі.
OpenAI, який зумів привернути увагу всього світу своїм чат-ботом ChatGPT, останнім часом стоїть на порядку денному з проблемами безпеки. Минулого тижня пішов Ілля Суцкевер, який відповідав за технічну групу компанії. Дослідник безпеки Ян Лейке звільнився з OpenAI і зробив деякі зізнання.
Лейке, який опублікував серію дописів у Twitter, висловив певну критику щодо OpenAI. Заявивши, що компанія втратила свою культуру безпеки, експерт-дослідник заявив, що процеси безпеки залишаються на задньому плані порівняно з успіхом продуктів.
OpenAI разом із командою Superalignment прагнули усунути довгострокові ризики, пов’язані зі штучним інтелектом. Однак із відходом Лейке з компанії Superalignment оголосила, що її команда була розпущена. Це свідчить про те, що ризики безпеці зростають.
Лейке, один із співзасновників OpenAI, був одним із піонерів безпечного штучного інтелекту. Однак він визнав, що пріоритет групи досліджень безпеки був зменшений. Він також сказав, що деякий час він розходився з пріоритетами компанії.
Цей інцидент в OpenAI змусив нас переглянути те, як компанії вживають заходів безпеки у сфері штучного інтелекту. Особливо після таких моделей, як GPT-4o, ці відмінності стали предметом цікавості.