Последний исследовательский документ, опубликованный OpenAI, показывает, что компания использует новый метод обучения моделей искусственного интеллекта (ИИ) для борьбы с «иллюзиями» искусственного интеллекта.

Иллюзия ИИ относится к способности модели ИИ генерировать контент, который не основан на каких-либо реальных данных, а является продуктом собственного воображения модели. Существуют опасения по поводу потенциальных проблем, которые могут создать такие галлюцинации, включая моральные, социальные и практические проблемы.

Галлюцинация искусственного интеллекта возникает, когда чат-бот OpenAI ChatGPT или конкурент Google Bard просто фабрикуют ложную информацию и ведут себя так, как будто они излагают факты. Некоторые независимые эксперты выразили сомнения в эффективности подхода OpenAI.