Selon Cointelegraph, le géant des médias sociaux Meta a dissous sa division Responsible AI (RAI), qui se consacrait à réglementer la sécurité de ses projets d'intelligence artificielle pendant le développement et le déploiement. De nombreux membres de l'équipe RAI ont évolué vers des postes au sein de la division produits Generative AI de l'entreprise, tandis que certains ont rejoint l'équipe AI Infrastructure. Créée en février, l'équipe Generative AI de Meta se concentre sur le développement de produits qui génèrent un langage et des images pour imiter les versions créées par l'homme.
La restructuration de la division RAI intervient alors que Meta approche de la fin de son « année d'efficacité », comme l'a appelé le PDG Mark Zuckerberg lors d'une conférence téléphonique sur les résultats en février. Cela a entraîné une série de licenciements, de fusions d'équipes et de redistributions au sein de l'entreprise. Garantir la sécurité de l’IA est devenu une priorité pour les principaux acteurs du secteur, d’autant plus que les régulateurs et les responsables accordent une plus grande attention aux dangers potentiels de la technologie naissante. En juillet, Anthropic, Google, Microsoft et OpenAI ont formé un groupe industriel chargé d'établir des normes de sécurité à mesure que l'IA progresse.
Malgré la redistribution des membres de l'équipe RAI au sein de l'entreprise, ils restent déterminés à soutenir le développement et l'utilisation responsable de l'IA, en mettant l'accent sur les investissements continus dans ce domaine. Meta a récemment introduit deux modèles génératifs basés sur l'IA. Le premier, Emu Video, exploite le précédent modèle Emu de Meta et peut générer des clips vidéo basés sur des entrées de texte et d'images. Le deuxième modèle, Emu Edit, se concentre sur la manipulation d'images, promettant plus de précision dans l'édition d'images. Cointelegraph a contacté Meta pour plus d'informations, mais n'a reçu aucun retour au moment de la publication.
