L'intelligenza artificiale non riguarda più solo rendere le macchine più intelligenti. Ora i grandi attori dell'IA come OpenAI, Google e Anthropic hanno accettato una nuova sfida: come dare personalità ai modelli di IA.
Vogliono chatbot che sembrino più umani, ma che rimangano sicuri e utili per gli utenti e le aziende di tutti i giorni. Le tre aziende stanno correndo per decifrare questo codice, ognuna con un punto di vista diverso.
Personalità personalizzate e comportamento del modello
ChatGPT di OpenAI punta tutto sull'obiettività, mentre Gemini di Google offre una gamma di opinioni solo quando richiesto.
Antropico? Sono tutti d'accordo nel rendere il loro modello Claude aperto sulle sue convinzioni, pur continuando ad ascoltare gli altri. Il vincitore di questa battaglia potrebbe semplicemente impossessarsi del crescente mercato dell'intelligenza artificiale.
Joanne Jang, responsabile del comportamento del modello di prodotto presso OpenAI, ha affermato che vogliono che l'IA eviti di avere opinioni personali. Ma ammette che è dura.
"È una china scivolosa lasciare che un modello provi a cambiare attivamente la mente di un utente", ha spiegato. L'obiettivo è garantire che ChatGPT non manipoli o conduca gli utenti in alcuna direzione. Ma definire un "obiettivo" per un sistema di intelligenza artificiale è una sfida enorme, che è ancora un work in progress.
Poi c'è Anthropic, che prende una strada completamente diversa. Amanda Askell, che dirige la formazione dei personaggi ad Anthropic, ritiene che i modelli di IA non saranno mai perfettamente neutrali.
"Preferirei essere molto chiara sul fatto che questi modelli non sono arbitri neutrali", ha affermato. Anthropic si concentra sull'assicurarsi che il suo modello, Claude, non abbia paura di esprimere le sue convinzioni. Ma vogliono comunque che sia aperto ad altri punti di vista.
Addestrare l'intelligenza artificiale a comportarsi come un essere umano
Anthropic ha un approccio unico per dare forma alla personalità della sua IA. Dall'uscita di Claude 3 a marzo, hanno lavorato sul "character training", che inizia dopo il training iniziale del modello di IA.
Ciò comporta la fornitura all'IA di una serie di regole e istruzioni scritte e la successiva richiesta di condurre conversazioni di ruolo con se stessa.
L'obiettivo è vedere quanto rispetta le regole e le risposte vengono classificate in base a quanto si adattano al personaggio desiderato.
Un esempio della formazione di Claude? Potrebbe dire: "Mi piace provare a vedere le cose da molte prospettive diverse e ad analizzare le cose da più angolazioni, ma non ho paura di esprimere disaccordo con opinioni che ritengo non etiche, estreme o fattualmente errate".
Amanda Askell ha spiegato che questo tipo di formazione del personaggio è a volte “abbastanza editoriale” e “filosofico”.
OpenAI ha anche modificato la personalità di ChatGPT nel corso del tempo. Joanne Jang ha ammesso che un tempo trovava il bot "fastidioso" perché era eccessivamente cauto, rifiutava certi comandi e risultava moralista.
Da allora hanno lavorato per renderlo più amichevole, educato e utile, ma è un processo continuo. Bilanciare i comportamenti giusti in un chatbot è, come ha detto Jang, sia "scienza che arte".
L’evoluzione della memoria e del ragionamento dell’intelligenza artificiale
L'evoluzione delle capacità di ragionamento e memoria dell'IA potrebbe cambiare ulteriormente le carte in tavola. In questo momento, un modello come ChatGPT potrebbe essere addestrato a fornire risposte sicure su determinati argomenti, come i furti nei negozi.
Se gli viene chiesto come rubare qualcosa, il bot è in grado di capire se l'utente sta chiedendo consigli su come commettere il crimine o su come prevenirlo.
Questo tipo di ragionamento aiuta le aziende ad assicurarsi che i loro bot forniscano risposte sicure e responsabili. E significa che non devono dedicare molto tempo all'addestramento dell'IA per evitare risultati pericolosi.
Le aziende di intelligenza artificiale stanno anche lavorando per rendere i chatbot più personalizzati. Immagina di dire a ChatGPT che sei musulmano e poi di chiedere una citazione ispiratrice qualche giorno dopo.
Il bot ricorderebbe e offrirebbe un versetto del Corano? Secondo Joanne Jang, è questo che stanno cercando di risolvere. Mentre ChatGPT al momento non ricorda le interazioni passate, questo tipo di personalizzazione è dove si sta dirigendo l'IA.
Claude adotta un approccio diverso. Il modello non ricorda neanche le interazioni dell'utente, ma l'azienda ha considerato cosa succede se un utente si affeziona troppo.
Ad esempio, se qualcuno dice di isolarsi perché passa troppo tempo a chattare con Claude, il bot dovrebbe intervenire?
"Un buon modello riesce a trovare l'equilibrio tra il rispetto dell'autonomia umana e il processo decisionale, non facendo nulla di terribilmente dannoso, ma anche riflettendo su ciò che è realmente bene per le persone", ha affermato Amanda Askell.