Después de que el cofundador Ilya Sutskever dejara la empresa a principios de esta semana, Jan Leike, un destacado investigador, anunció el viernes por la mañana que “la cultura y los procesos de seguridad han pasado a un segundo plano frente a los productos brillantes” en la empresa.

Jan Leike dijo en una serie de publicaciones en la plataforma de redes sociales X que se unió a la startup con sede en San Francisco porque creía que sería el mejor lugar para realizar investigaciones sobre IA.

Leike dirigió el equipo de “Superalineación” de OpenAI con un cofundador que también renunció esta semana.

El equipo SuperLignment en OpenAI ya no está intacto

El equipo Superalignment de Leike se formó en julio pasado en OpenAI para abordar los principales desafíos técnicos en la implementación de medidas de seguridad a medida que la compañía avanza en una IA que puede racionalizar como un humano. 

Las declaraciones de Leike se produjeron después de que un informe de WIRED Chich afirmara que OpenAI había disuelto por completo el equipo Superslignment, que tenía la tarea de abordar los riesgos a largo plazo asociados con la IA.

Lea también: El científico jefe de Openai, Ilya Sutskever, se despide

Sutskever y Leike no fueron los únicos empleados que abandonaron la empresa. Al menos cinco de los trabajadores más preocupados por la seguridad en OpenAI han abandonado la empresa o han sido despedidos desde noviembre pasado, cuando la junta intentó despedir al director ejecutivo Sam Altman solo para verlo jugar sus cartas para reclamar su puesto.

OpenAI debería convertirse en una empresa AGI que prioriza la seguridad

Leike señaló la característica más polémica de la tecnología en varias plataformas: una imagen prospectiva de robots que son generalmente tan inteligentes como los humanos o al menos capaces de realizar muchas tareas igual de bien, y escribió que OpenAI debe transformarse en una seguridad primero. Empresa AGI.

En respuesta a las publicaciones de Leike, Sam Altman, director ejecutivo de Open AI, expresó su gratitud por los servicios de Leike a la empresa y expresó su tristeza por su partida.

Altman dijo en una publicación de X que Leike tiene razón y que escribiría una publicación extensa sobre el tema en los próximos días. También dijo que,

“Tenemos mucho más por hacer; estamos comprometidos a hacerlo”. 

Leike dejó el equipo de superalineación de OpenAI y John Schulman, cofundador de la empresa, asumió el cargo.

Pero hay un vacío en el equipo. Además, Schulman ya está sobrecargado por su trabajo de tiempo completo garantizando la seguridad de los productos existentes de OpenAI. ¿Cuánto trabajo de seguridad más significativo y centrado en el futuro es posible que realice OpenAI? No parece haber una respuesta satisfactoria a esto.

Jan Leike tiene diferencias ideológicas con la dirección

Como ya sugiere el nombre de la organización, OpenAI, originalmente tenía la intención de compartir sus modelos libremente con el público, la empresa ahora dice que poner a disposición de cualquiera modelos tan potentes podría ser perjudicial, por lo que los modelos se han convertido en conocimiento propietario.

Leike dijo en una publicación que no estaba de acuerdo con el liderazgo de OpenAI sobre las prioridades que han estado imponiendo a la empresa durante bastante tiempo, hasta que finalmente alcanzaron un punto de inflexión.

Me uní porque pensé que OpenAI sería el mejor lugar del mundo para realizar esta investigación. Sin embargo, he estado en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía durante bastante tiempo, hasta que finalmente llegamos a un punto de ruptura.

– Jan Leike (@janleike) 17 de mayo de 2024

El último día de Leike en la empresa fue el jueves, después del cual renunció y no endulzó su renuncia con cálidas despedidas ni ningún indicio de confianza en el liderazgo de OpenAI. En X, publicó: "Renuncié".

Un seguidor de Leike dijo en un comentario que está encantado de que Leike ya no sea miembro de su equipo. Las ideologías despiertas no están en consonancia con la humanidad. Cuanto menos alineado está, más se pone en la IA. 

Lea también: OpennAI protege el contenido de Reddit para mejorar ChatGPT

El seguidor dijo que también exigiría una definición de alineación de todos los alineadores. Señalaba una recomendación en la que Leike preguntaba a otros empleados de OpenAI si creía que podían lograr el cambio cultural que se necesitaba en la empresa. 

La principal empresa de inteligencia artificial del mundo parece estar cambiando su rumbo con respecto a las medidas de seguridad que los expertos suelen destacar, y la salida de la empresa de los principales expertos en seguridad probablemente lo confirme.

Informe criptopolitano de Aamir Sheikh