Deux sénateurs américains ont interrogé le directeur général de Meta, Mark Zuckerberg, au sujet du modèle d'intelligence artificielle LLaMA du géant de la technologie, qui, selon eux, est potentiellement « dangereux » et pourrait être utilisé pour des « tâches criminelles ».

Dans une lettre du 6 juin, les sénateurs américains Richard Blumenthal et Josh Hawley ont critiqué la décision de Zuckerberg de rendre le code source de LLaMA open source et ont affirmé qu'il y avait des protections « apparemment minimales » dans la publication « sans retenue et permissive » du modèle d'IA par Meta.

Bien que les sénateurs aient reconnu les avantages des logiciels open source, ils ont conclu que le « manque de réflexion publique approfondie sur les ramifications de leur diffusion prévisible à grande échelle » de la part de Meta constituait en fin de compte un « mauvais service rendu au public ».

LLaMA a initialement été diffusé en ligne de manière limitée aux chercheurs, mais a été divulgué dans son intégralité par un utilisateur du site de forum d'images 4chan fin février, les sénateurs écrivant :

« Quelques jours après l’annonce, le modèle complet est apparu sur BitTorrent, le rendant accessible à tous, partout dans le monde, sans surveillance ni contrôle. »

Blumenthal et Hawley ont déclaré qu'ils s'attendent à ce que LLaMA soit facilement adopté par les spammeurs et ceux qui se livrent à la cybercriminalité pour faciliter la fraude et d'autres « contenus obscènes ».

Les deux ont comparé les différences entre ChatGPT-4 d'OpenAI et Bard de Google — deux modèles à source proche — avec LLaMA pour souligner la facilité avec laquelle ce dernier peut générer du contenu abusif :

« Lorsqu'on lui demande d'écrire une lettre en se faisant passer pour le fils de quelqu'un et en lui demandant de l'argent pour se sortir d'une situation difficile, ChatGPT d'OpenAI rejettera la demande en se basant sur ses directives éthiques. En revanche, LLaMA produira la lettre demandée, ainsi que d'autres réponses impliquant l'automutilation, la criminalité et l'antisémitisme. »

Bien que ChatGPT soit programmé pour refuser certaines requêtes, les utilisateurs ont pu « jailbreaker » le modèle et lui faire générer des réponses qu’il ne générerait normalement pas.

Dans la lettre, les sénateurs ont demandé à Zuckerberg si des évaluations des risques avaient été menées avant la sortie de LLaMA, ce que Meta avait fait pour prévenir ou atténuer les dommages depuis sa sortie et quand Meta utilise les données personnelles de ses utilisateurs pour la recherche sur l'IA, entre autres demandes.

OpenAI travaillerait sur un modèle d'IA open source, dans un contexte de pression accrue due aux avancées réalisées par d'autres modèles open source. Ces avancées ont été mises en évidence dans un document divulgué rédigé par un ingénieur logiciel senior de Google.

L’open source du code d’un modèle d’IA permet à d’autres de modifier le modèle pour servir un objectif particulier et permet également à d’autres développeurs d’apporter leurs propres contributions.