
Plus de 2 600 professionnels et chercheurs de l’informatique ont signé une lettre ouverte appelant à un arrêt temporaire du développement de l’IA, évoquant « de graves dangers pour la société et l’humanité ». Le PDG de Tesla, Elon Musk, le cofondateur d’Apple, Steve Wozniak, ainsi qu’un grand nombre de PDG, de directeurs techniques et d’universitaires spécialisés dans l’IA figurent parmi les signataires de la lettre, publiée le 22 mars par le groupe de réflexion américain Future of Life Institute (FOLI).
L'institut a exhorté toutes les entreprises d'IA à « cesser immédiatement » de former des systèmes d'IA plus puissants que GPT-4 pendant au moins six mois, invoquant des craintes selon lesquelles « l'intelligence compétitive humaine peut présenter de graves dangers pour la société et l'humanité », entre autres.
« L’intelligence artificielle avancée (IA) pourrait signifier une transformation fondamentale dans l’histoire de la vie sur Terre, et elle devrait être planifiée et gérée avec le soin et les ressources appropriés. » Malheureusement, ce degré de planification et d’administration n’a pas lieu », a noté l’institut.
GPT-4 est la dernière génération du chatbot d’OpenAI, qui a été lancé le 14 mars. À ce jour, il a réussi certains des tests de lycée et de droit les plus difficiles aux États-Unis dans le 90e percentile. Il est considéré comme dix fois plus avancé que la version initiale de ChatGPT. L’industrie de l’IA est engagée dans une « course incontrôlable » pour produire une IA de plus en plus puissante, que « personne – pas même ses inventeurs – ne peut comprendre, anticiper ou contrôler de manière fiable », selon FOLI.
Parmi les principales craintes, on peut citer la possibilité que les robots inondent les canaux d’information de « propagande et de désinformation » et la possibilité que les machines « automatisent » toutes les possibilités d’emploi. FOLI a poussé ces craintes encore plus loin, affirmant que les efforts entrepreneuriaux de ces entreprises d’IA pourraient entraîner une menace existentielle : « Devrions-nous construire des esprits extraterrestres qui pourraient un jour nous surpasser en nombre, en ingéniosité, devenir obsolètes et nous remplacer ? »
« De telles décisions ne devraient pas être confiées à des dirigeants technologiques non élus », poursuit la lettre. L’institut est également d’accord avec la récente déclaration du fondateur d’OpenAI, Sam Altman, selon laquelle une évaluation indépendante devrait être menée avant de former les futurs systèmes d’IA. Dans un article de blog publié le 24 février, Altman a souligné l’importance de se préparer aux robots dotés d’intelligence artificielle générale (AGI) et de superintelligence artificielle (ASI).
Cependant, tous les experts en intelligence artificielle ne se sont pas empressés de signer la pétition. Ben Goertzel, PDG de SingularityNET, a déclaré le 29 mars sur Twitter dans une réponse à Gary Marcus, auteur de Rebooting.AI, que les modèles d’apprentissage des langues (LLM) ne deviendront pas des IA, qui ont peu progressé jusqu’à présent. Il a plutôt suggéré de ralentir la recherche et le développement d’articles tels que les armes biologiques et nucléaires :
En plus des modèles d’apprentissage des langues tels que ChatGPT, la technologie de deep fake alimentée par l’IA a été utilisée pour créer des images, des fichiers audio et des vidéos convaincants, ainsi que des œuvres d’art générées par l’IA, avec certaines inquiétudes exprimées quant à la possibilité qu’elle puisse enfreindre les lois sur le droit d’auteur dans des situations spécifiques. Le PDG de Galaxy Digital, Mike Novogratz, a récemment déclaré aux investisseurs qu’il était surpris par le niveau de contrôle réglementaire accordé à la cryptomonnaie alors qu’il accordait peu d’attention à l’intelligence artificielle.
« Quand je pense à l’IA, je suis étonné que nous parlions autant de la réglementation des crypto-monnaies et rien de la réglementation de l’IA. Je veux dire, je pense que le gouvernement a complètement tort », a-t-il déclaré lors d’une conférence téléphonique avec les actionnaires le 28 mars. FOLI a préconisé que si un arrêt du développement de l’IA n’est pas mis en œuvre immédiatement, les gouvernements devraient intervenir en instaurant un moratoire. « Si un tel arrêt ne peut pas être appliqué rapidement, les gouvernements devraient intervenir et instituer un moratoire », a-t-il écrit.
L'article Elon Musk et les dirigeants technologiques appellent à une pause dans le développement de l'IA est apparu en premier sur BitcoinWorld.



