Bu makale ilgili.
Nature Scientific Journal'da yayımlanan "Daha büyük ve daha öğretilebilir dil modelleri daha az güvenilir hale geliyor" başlıklı son araştırma, yapay zeka sohbet botlarının yeni modeller piyasaya sürüldükçe daha fazla hata yaptığını ortaya koydu. Araştırmanın yazarlarından Lexin Zhou, AI modellerinin her zaman inandırıcı yanıtlar vermeye odaklandığını ve bu nedenle doğru gibi görünen ancak hatalı yanıtların kullanıcılara sunulduğunu belirtti.
Bu AI halüsinasyonları zamanla artarak "model çöküşüne" yol açıyor. Editör Mathieu Roy, kullanıcıları bu araçlara aşırı güvenmemeleri ve AI tarafından üretilen sonuçları daima kontrol etmeleri konusunda uyardı.
Google'ın AI platformu, Şubat 2024'te tarihsel olarak yanlış görüntüler üretmesiyle eleştiri aldı. Nvidia CEO'su Jensen Huang gibi sektör liderleri, AI halüsinasyonlarını azaltmak için modellerin araştırma yapmasını ve her yanıt için kaynak sağlamasını önerdi.
HyperWrite AI CEO'su Matt Shumer, şirketin yeni 70B modelinin "Reflection-Tuning" yöntemiyle AI botunun kendi hatalarını analiz ederek yanıtlarını zamanla ayarlayabildiğini duyurdu.
Bu konuda ne düşünüyorsunuz? Yorumlarda paylaşın.