AI-dən nə qədər istifadə etsəm, bir o qədər də anlayıram ki, əsl problem "AI bəzən yanlışdır" deyil. Məsələ odur ki, AI özünə inamla yanlışdır — insanlar busy olduqda inama təbii olaraq güvənirlər.
Buna görə @Mira - Trust Layer of AI mənim üçün fərqlənir.
Bir "mükəmməl model" qurmağa çalışmaq əvəzinə, Miranın ideyası daha praktikdir: AI məhsullarını yoxlanılması lazım olan iddialar kimi qəbul etməkdir. Beləliklə, bir parlaq cavabı qəbul etmək əvəzinə, sistem bunu daha kiçik ifadələrə bölə bilər və bunları yoxlanmaq üçün müstəqil doğrulayıcılar/modelər vasitəsilə keçirə bilər — etibarlı saymadan əvvəl.
Və bunun niyə önəmli olduğu sadədir: AI məzmundan irəliləyir. O, qərar verməyə doğru irəliləyir — maliyyə, tədqiqat, avtomatlaşdırma, hətta səhiyyə dəstəyi. Bu sahələrdə sürət etibarsız olduqda faydasızdır.
Miranın istiqamətini bəyəndiyim şey odur ki, bu, etibarını koordinasiya problemi kimi qəbul edir, marketinq vədəsi kimi deyil. Əgər işləyirsə, AI-ni "mükəmməl" etmir... bu, AI-yə güvənmək üçün daha təhlükəsiz edir.

