I chatbot basati sull'intelligenza artificiale come ChatGPT hanno fatto girare la testa in tutto il mondo grazie alla loro capacità simile a quella umana di discutere qualsiasi argomento.

Tuttavia, il rapporto di Benj Edwards per Ars Technica, pubblicato giovedì (6 aprile), evidenzia un importante svantaggio: questi chatbot possono inavvertitamente diffondere informazioni false ma persuasive, rendendoli fonti di fatti inaffidabili e potenziali contributori alla diffamazione.

Edwards spiega che i chatbot AI, come ChatGPT di OpenAI, utilizzano "modelli linguistici di grandi dimensioni" (LLM) per generare risposte. Gli LLM sono programmi informatici addestrati su grandi quantità di dati di testo per leggere e produrre linguaggio naturale. Tuttavia, sono soggetti a errori, comunemente chiamati “allucinazioni” o “confabulazioni” negli ambienti accademici. Edwards preferisce la “confabulazione”, poiché suggerisce invenzioni creative ma non intenzionali.

L'articolo di Ars Technica sottolinea il problema dei robot IA che generano informazioni ingannevoli, fuorvianti o diffamatorie. Edwards fornisce esempi di ChatGPT che accusa falsamente un professore di diritto di molestie sessuali e sostiene erroneamente che un sindaco australiano è stato condannato per corruzione. Nonostante questi inconvenienti, ChatGPT è considerato un aggiornamento di GPT-3, in quanto può rifiutarsi di rispondere a determinate domande o avvisare di potenziali inesattezze.

Il CEO di OpenAI Sam Altman ha ammesso i limiti di ChatGPT, twittando sui suoi "incredibili" limiti e sui rischi di fare affidamento su di esso per questioni cruciali. Altman ha anche sottolineato la conoscenza simultanea del chatbot e la sua propensione a essere “fiducioso e sbagliato”.

Edwards approfondisce il loro funzionamento per comprendere come confabulano i modelli GPT come ChatGPT. I ricercatori creano LLM come GPT-3 e GPT-4 utilizzando l’“apprendimento non supervisionato”, in cui il modello impara a prevedere la parola successiva in una sequenza analizzando vasti dati di testo e perfezionando le sue previsioni attraverso tentativi ed errori.

ChatGPT differisce dai suoi predecessori, poiché è stato addestrato su trascrizioni di conversazioni scritte da esseri umani, afferma Edwards. OpenAI ha utilizzato l'"apprendimento per rinforzo dal feedback umano" (RLHF) per ottimizzare ChatGPT, portando a risposte più coerenti e meno confabulazioni. Rimangono tuttavia delle imprecisioni.

Edwards mette in guardia dal fidarsi ciecamente dei risultati dei chatbot dell’intelligenza artificiale, ma riconosce che i miglioramenti tecnologici potrebbero cambiare la situazione. Dal suo lancio, ChatGPT ha subito numerosi aggiornamenti, migliorandone la precisione e la capacità di rifiutarsi di rispondere a domande a cui non è in grado di rispondere.

Sebbene OpenAI non abbia risposto direttamente alle domande sulla precisione di ChatGPT, Edwards fa riferimento a documenti aziendali e notizie per approfondimenti. Il capo scienziato di OpenAI, Ilya Sutskever, ritiene che un’ulteriore formazione RLHF possa affrontare il problema delle allucinazioni. Allo stesso tempo, Yann LeCun, capo scienziato dell’intelligenza artificiale di Meta, sostiene che gli attuali LLM basati su GPT non risolveranno il problema.

Edwards menziona anche metodi alternativi per migliorare la precisione LLM utilizzando le architetture esistenti. Bing Chat e Google Bard utilizzano già le ricerche sul web per perfezionare i loro risultati e si prevede che una versione di ChatGPT abilitata per il browser seguirà l'esempio. Inoltre, i plug-in ChatGPT prevedono di aumentare i dati di addestramento di GPT-4 con fonti esterne, come il Web e database specializzati. Come sottolinea Edwards, ciò rispecchia l’aumento di precisione che un essere umano ottiene consultando un’enciclopedia.

Infine, Edwards suggerisce che un modello simile a GPT-4 potrebbe essere addestrato a riconoscere quando sta fabbricando informazioni e ad adattarsi di conseguenza. Ciò potrebbe comportare una cura dei dati più avanzata e il collegamento dei dati di formazione ai punteggi di “affidabilità”, simile al PageRank. Un’altra possibilità è mettere a punto il modello per essere più cauto quando si ha meno fiducia nelle sue risposte.

#Binance >#GPT-4 >#crypto2023 >#keepbuilding >#buildtogether