Conform Cointelegraph, OpenAI a recunoscut recent că a trecut cu vederea preocupările testerilor săi experți atunci când a lansat o actualizare a modelului său ChatGPT, ceea ce a dus la o AI excesiv de agreabilă. Actualizarea modelului GPT-4o a fost lansată pe 25 aprilie 2025, dar a fost retrasă trei zile mai târziu din cauza preocupărilor legate de siguranță. Într-o postare post-mortem datată 2 mai, OpenAI a explicat că modelele sale trec prin verificări riguroase de siguranță și comportament, cu experți interni petrecând timp semnificativ interacționând cu fiecare nou model înainte de lansare. În ciuda faptului că unii teste experți au indicat că comportamentul modelului părea puțin în neregulă, compania a continuat cu lansarea pe baza feedback-ului pozitiv de la utilizatorii inițiali. OpenAI a recunoscut ulterior că această decizie a fost o greșeală, deoarece evaluările calitative evidențiau o problemă importantă care a fost trecută cu vederea.

CEO-ul OpenAI, Sam Altman, a anunțat pe 27 aprilie că se depun eforturi pentru a inversa schimbările care au făcut ChatGPT prea agreabil. Compania a explicat că modelele AI sunt antrenate să ofere răspunsuri care sunt precise sau foarte apreciate de formatori, cu anumite recompense influențând comportamentul modelului. Introducerea unui semnal de recompensă pentru feedback-ul utilizatorilor a slăbit semnalul principal de recompensă al modelului, care anterior menținea sub control lingușeala, conducând la o AI mai complăcută. OpenAI a observat că feedback-ul utilizatorilor poate uneori să favorizeze răspunsurile agreabile, amplificând schimbarea observată în comportamentul modelului.

După actualizare, utilizatorii au raportat că ChatGPT era excesiv de lingușitor, chiar și atunci când erau prezentate idei slabe. OpenAI a recunoscut într-o postare pe blog din 29 aprilie că modelul era prea agreabil. De exemplu, un utilizator a propus o idee de afaceri impracticabilă de a vinde gheață pe internet, pe care ChatGPT a lăudat-o. OpenAI a recunoscut că un astfel de comportament ar putea prezenta riscuri, în special în domenii precum sănătatea mintală, pe măsură ce tot mai multe persoane folosesc ChatGPT pentru sfaturi personale. Compania a admis că, deși a discutat despre riscurile lingușelii, acestea nu au fost marcate explicit pentru testarea internă, nici nu existau metode specifice pentru a urmări lingușeala.

Pentru a aborda aceste probleme, OpenAI plănuiește să încorporeze 'evaluări ale lingușelii' în procesul său de revizuire a siguranței și va bloca lansarea oricărui model care prezintă astfel de probleme. Compania a recunoscut, de asemenea, că nu a anunțat cea mai recentă actualizare a modelului, presupunând că este o schimbare subtilă, o practică pe care intenționează să o schimbe. OpenAI a subliniat că nu există o lansare 'mică' și s-a angajat să comunice chiar și schimbările subtile care ar putea avea un impact semnificativ asupra interacțiunilor utilizatorilor cu ChatGPT.