Čím více používám AI, tím více si uvědomuji, že skutečný problém není "AI je občas chybná."
Je to, že AI může být chybné s jistotou - a lidé přirozeně důvěřují jistotě, když jsou zaneprázdněni.
Proto pro mě @Mira - Trust Layer of AI vyniká.
Místo toho, abychom se pokoušeli vytvořit jeden "dokonalý model," je Miraina myšlenka praktičtější: považovat výstupy AI za tvrzení, která je třeba ověřit. Takže místo přijetí jednoho vyleštěného odpovědi může systém rozdělit na menší prohlášení a provést jejich ověření - pomocí několika nezávislých validátorů/modelů - než je označí za důvěryhodné.
A důvod, proč to má význam, je jednoduchý: AI se posouvá za obsah. Přesouvá se do rozhodování - finance, výzkum, automatizace, dokonce i podpora zdravotní péče. V těchto oblastech je rychlost k ničemu, pokud výstup není důvěryhodný.
Co se mi líbí na Mirině směru, je to, že důvěru považuje za problém koordinace, nikoli za marketingový slib. Pokud to funguje, nedělá AI "dokonalou"... dělá AI bezpečnější pro spoléhání.

