Selon un rapport de Bloomberg, des représentants de l'Union européenne seraient en train de négocier un projet de réglementation supplémentaire sur les plus grands systèmes d'intelligence artificielle (IA).
La Commission européenne, le Parlement européen et les différents États membres de l'UE seraient en discussion concernant les effets potentiels des grands modèles de langage (LLM), notamment Llama 2 de Meta et GPT-4 d'OpenAI, et d'éventuelles restrictions supplémentaires qui pourraient leur être imposées. dans le cadre de la prochaine loi sur l’IA.
Bloomberg rapporte que des sources proches du dossier ont déclaré que l'objectif n'était pas de surcharger les nouvelles startups avec trop de réglementations tout en gardant sous contrôle les modèles plus importants.
Selon les sources, l'accord conclu par les négociateurs sur ce sujet en est encore au stade préliminaire.
La loi sur l’IA et les nouvelles réglementations proposées pour les LLM constitueraient une approche similaire à la loi sur les services numériques (DSA) de l’UE.
Le DSA a été récemment mis en œuvre par les législateurs européens et fait en sorte que les plateformes et les sites Web disposent de normes pour protéger les données des utilisateurs et rechercher les activités illégales. Toutefois, les plus grandes plateformes du Web sont soumises à des contrôles plus stricts.
Les entreprises de cette catégorie comme Alphabet Inc. et Meta Inc. avaient jusqu'au 28 août pour mettre à jour leurs pratiques de service afin de se conformer aux nouvelles normes de l'UE.
Related: L'UNESCO et les Pays-Bas conçoivent un projet de supervision de l'IA pour l'UE
La loi européenne sur l’IA est censée être l’un des premiers ensembles de règles obligatoires pour l’IA mises en place par un gouvernement occidental. La Chine a déjà promulgué son propre ensemble de réglementations sur l’IA, entrées en vigueur en août 2023.
En vertu de la réglementation européenne sur l’IA, les entreprises développant et déployant des systèmes d’IA devraient, entre autres, effectuer des évaluations des risques, étiqueter le contenu généré par l’IA et être totalement interdites d’utiliser la surveillance biométrique.
Cependant, la législation n'a pas encore été adoptée et les États membres ont toujours la possibilité de ne pas être d'accord avec l'une des propositions présentées par le Parlement.
En Chine, depuis la mise en œuvre de ses lois sur l’IA, il a été signalé que plus de 70 nouveaux modèles d’IA ont déjà été lancés.
Magazine : La vérité derrière la révolution Bitcoin à Cuba : un rapport sur le terrain
