Les sociétés d'intelligence artificielle OpenAI et Anthropic ont récemment convenu de fournir à l'AI Security Institute des États-Unis un accès anticipé à tout nouveau modèle d'IA « important » qu'elles développent, a rapporté Cointelegraph.
Même si l'accord aurait été signé en réponse à des préoccupations communes en matière de sécurité, on ne sait pas exactement quel sera le rôle spécifique du gouvernement lorsque les avancées technologiques auront des implications significatives en matière de sécurité.
Sam Altman, PDG et co-fondateur d'OpenAI, a déclaré sur la plateforme de médias sociaux X que l'accord était une étape nécessaire et a souligné la nécessité pour les États-Unis de continuer à diriger au niveau national.
OpenAI et Anthropic s'engagent tous deux à développer l'intelligence artificielle générale (AGI), c'est-à-dire une IA capable d'accomplir n'importe quelle tâche avec des ressources humaines. Chaque entreprise a sa propre charte et sa propre mission pour créer en toute sécurité une AGI axée sur le bénéfice humain.
En signant un accord avec le gouvernement américain pour divulguer leurs modèles avant la commercialisation d’un produit, les entreprises confient cette responsabilité au gouvernement fédéral.
OpenAI pourrait être sur le point de faire une percée, avec ses projets « Strawberry » et « Orion » censés être capables de raisonnement avancé et de résoudre les problèmes d'hallucinations dans l'IA, a rapporté Cointelegraph. Le gouvernement américain a déjà vu ces outils et leurs premières itérations internes dans ChatGPT.
Un article de blog du National Institute of Standards and Technology indique que l'accord et les directives de sécurité associées sont volontaires pour les entreprises participantes. Les partisans soutiennent qu’une telle réglementation légère favorise la croissance et permet à l’industrie de s’autoréguler.
Cependant, l’un des problèmes potentiels d’une réglementation légère est le manque de transparence. Si OpenAI ou Anthropic réussit, il n’y a aucune obligation légale de le divulguer si le gouvernement décide que le public n’a pas besoin de le savoir.