Das neueste von OpenAI veröffentlichte Forschungspapier zeigt, dass das Unternehmen eine neue Methode verwendet, um Modelle der künstlichen Intelligenz (KI) zu trainieren, um „Illusionen“ der künstlichen Intelligenz zu bekämpfen.

KI-Illusion bezieht sich auf die Fähigkeit eines KI-Modells, Inhalte zu generieren, die nicht auf realen Daten basieren, sondern ein Produkt der eigenen Vorstellungskraft des Modells sind. Es bestehen Bedenken hinsichtlich der potenziellen Probleme, die solche Halluzinationen mit sich bringen können, einschließlich moralischer, sozialer und praktischer Fragen.

Zu einer Halluzination künstlicher Intelligenz kommt es, wenn der Chatbot ChatGPT von OpenAI oder der Google-Konkurrent Bard einfach falsche Informationen fabrizieren und sich so verhalten, als würden sie Fakten von sich geben. Einige unabhängige Experten haben Zweifel an der Wirksamkeit des OpenAI-Ansatzes geäußert.