$MIRA Ikviens, kurš ir veidojis AI caurules, zina grimstošo sajūtu par "klusējošu neveiksmi." Sistēma nesabrūk; tā neizmet kļūdas kodu. Tā vienkārši skatās tev acīs un piegādā perfekti formatētu, pārliecinošu melu.
Cieta patiesība? AI nav izstrādāta, lai būtu pareiza; tā ir izstrādāta, lai izklausītos pareizi. Ja mēs vēlamies patiesi izmantot šo tehnoloģiju augstas likmes jomās, piemēram, medicīnā, likumā vai finansēs, "visticamāk pareizi" ir neveiksmīgs novērtējums. Mums ir jāmaina veids, kā mēs risinām problēmu. Pārtreniņš palīdz ap maliņām, bet īstais risinājums ir varas atdalīšana. Tā vietā, lai cerētu, ka viens modelis ir pareizs, mums ir jāuztver AI iznākums kā "neapstrādāta materiāla", kam nepieciešama stingra revīzija. Šeit nāk Mira:
Dekonstrukcija: AI iznākums tiek sadalīts individuālās prasībās.
Žūrijas sistēma: Šīs prasības tiek nosūtītas neatkarīgām verificēšanas mezgliem. Šie mezgli ne tikai darbojas ar dažādiem modeļiem; tiem ir finansiāla interese būt precīziem.
Konsensuss pār pārliecību: Mūsu nerūp, ja modelis izklausās drošs. Mums rūp, vai neatkarīgu pārbaudītāju konsensuss var aizstāvēt faktus.
Dienas beigās mēs nebeidzam ar "gudrāku" modeli—mēs beidzam ar aizstāvētu cauruli. Mēs iegūstam ierakstu par to, kāpēc mums vajadzētu uzticēties konkrētai datu daļai.
Mēs nekad neiztrennēsim "halucināciju" no AI. Tas ir daļa no DNS. Nākotne nav par aklu uzticēšanos; tā ir par pazemību pārbaudīt, struktūru pārbaudīt un ierakstiem, lai to pierādītu.
@Mira - Trust Layer of AI #Mira #AI #TechTransparency $MIRA