Secondo PANews, lo scorso autunno, il CEO di OpenAI Sam Altman è stato prima licenziato dal consiglio di amministrazione, poi ha riconquistato drasticamente la sua posizione, portando a un importante rimpasto dei membri del consiglio di amministrazione della società. Martedì, l’ex membro del consiglio di OpenAI Helen Toner ha finalmente rivelato parte della storia. Il ricercatore di intelligenza artificiale ha criticato Altman in un'intervista per la sua mancanza di trasparenza, che ha lasciato il consiglio all'oscuro delle decisioni chiave di OpenAI, portando al suo licenziamento.
Toner ha rivelato che Altman ha ripetutamente nascosto informazioni al consiglio di amministrazione e ha travisato le attività in corso della società, in alcuni casi anche mentendo al consiglio. Ad esempio, quando il prodotto di punta di OpenAI, ChatGPT, ha fatto il suo debutto nel novembre 2022, i membri del consiglio non ne sapevano quasi nulla. Toner lo ha scoperto tramite Twitter. Inoltre, ha sottolineato che Altman affermava di essere un membro indipendente del consiglio di OpenAI senza alcun interesse finanziario nella società, ma in realtà aveva nascosto la sua proprietà del fondo startup OpenAI.
Ciò che ha disturbato di più Toner è stato il fatto che Altman abbia fornito informazioni inesatte al consiglio sul processo di sicurezza dell'IA e abbia iniziato a mentire nel tentativo di cacciarla dal consiglio. Questa è stata la vera ragione della preoccupazione collettiva del consiglio e dell'inizio delle discussioni sulla rimozione di Altman. Toner ha sottolineato che tutti e quattro i registi sono giunti alla conclusione di non potersi fidare di ciò che Altman ha detto loro. Ciò era del tutto inaccettabile per un consiglio che dovrebbe essere responsabile della supervisione indipendente della società. Lo scopo del consiglio non è quello di aiutare l’amministratore delegato a raccogliere più fondi.
In precedenza, dopo lo scioglimento del team OpenAI responsabile della sicurezza dell’IA, Superalignment, OpenAI aveva istituito un comitato di supervisione guidato da Sam Altman per valutare la sicurezza dei suoi modelli di intelligenza artificiale. I rapporti suggeriscono che il nuovo comitato per la sicurezza segna la transizione di OpenAI da un'entità senza scopo di lucro indefinita a un'entità commerciale.