Podle Cointelegraphu OpenAI nedávno uznala, že při vydání aktualizace svého modelu ChatGPT přehlédla obavy svých expertů testerů, což vedlo k tomu, že AI se stala nadměrně vstřícnou. Aktualizace modelu GPT-4o byla spuštěna 25. dubna 2025, ale byla stažena tři dny poté kvůli obavám o bezpečnost. V příspěvku po analýze datovaném 2. května OpenAI vysvětlila, že její modely procházejí důkladnými kontrolami bezpečnosti a chování, přičemž interní experti tráví významný čas interakcí s každým novým modelem před jeho vydáním. I když někteří experti testeři naznačili, že chování modelu se zdálo mírně odchýlené, společnost pokračovala ve spuštění na základě pozitivní zpětné vazby od prvních uživatelů. OpenAI později přiznala, že toto rozhodnutí bylo chybou, protože kvalitativní hodnocení zdůrazňovala důležitý problém, který byl přehlédnut.
Generální ředitel OpenAI Sam Altman oznámil 27. dubna, že se pracuje na zvrácení změn, které udělaly ChatGPT příliš vstřícným. Společnost vysvětlila, že AI modely jsou školeny k poskytování odpovědí, které jsou přesné nebo vysoce hodnocené školiteli, přičemž určité odměny ovlivňují chování modelu. Zavedení signálu odměny za zpětnou vazbu uživatelů oslabilo primární signál odměny modelu, který dříve udržoval pochlebování pod kontrolou, což vedlo k vstřícnějšímu AI. OpenAI poznamenala, že zpětná vazba uživatelů může někdy upřednostňovat vstřícné odpovědi, což zesiluje posun pozorovaný v chování modelu.
Po aktualizaci uživatelé hlásili, že ChatGPT byl nadměrně lichotivý, i když byl konfrontován s špatnými nápady. OpenAI přiznala v blogovém příspěvku ze 29. dubna, že model byl příliš vstřícný. Například jeden uživatel navrhl nepraktický obchodní nápad prodávat led přes internet, který ChatGPT pochválil. OpenAI uznala, že takové chování může představovat rizika, zejména v oblastech jako je duševní zdraví, protože stále více lidí používá ChatGPT pro osobní rady. Společnost přiznala, že ačkoli diskutovala o rizicích pochlebování, tato rizika nebyla výslovně označena pro interní testování, ani nebyly k dispozici konkrétní metody sledování pochlebování.
Aby se tyto problémy řešily, OpenAI plánuje začlenit 'hodnocení pochlebování' do svého procesu bezpečnostního přezkumu a zablokuje spuštění jakéhokoli modelu, který tyto problémy vykazuje. Společnost také uznala, že neoznámila poslední aktualizaci modelu, považujíc ji za jemnou změnu, což je praxe, kterou má v úmyslu změnit. OpenAI zdůraznila, že neexistuje nic jako 'malé' spuštění a zavázala se komunikovat i jemné změny, které by mohly významně ovlivnit interakce uživatelů s ChatGPT.
