Le dernier document de recherche publié par OpenAI montre que l'entreprise utilise une nouvelle méthode pour former des modèles d'intelligence artificielle (IA) afin de lutter contre les « illusions » de l'intelligence artificielle.

L’illusion de l’IA fait référence à la capacité d’un modèle d’IA à générer du contenu qui n’est basé sur aucune donnée du monde réel, mais qui est plutôt le produit de la propre imagination du modèle. Il existe des inquiétudes quant aux problèmes potentiels que de telles hallucinations peuvent poser, notamment des problèmes moraux, sociaux et pratiques.

L'hallucination de l'intelligence artificielle se produit lorsque le chatbot ChatGPT d'OpenAI ou le concurrent de Google, Bard, fabriquent simplement de fausses informations et se comportent comme s'ils révélaient des faits. Certains experts indépendants ont exprimé des doutes quant à l'efficacité de l'approche d'OpenAI.