Fonte immagine: generata dallo strumento Unbounded AI

Due settimane dopo il rilascio di GPT-4, è stata pubblicata online una lettera aperta firmata da Elon Musk e da migliaia di persone del settore tecnologico. La lettera aperta invita tutti i laboratori di intelligenza artificiale a sospendere immediatamente per almeno 6 mesi l'addestramento dei sistemi di intelligenza artificiale più potenti di GPT-4.

Il co-fondatore di Apple Steve Wozniak, il vincitore del Premio Turing Yoshua Bengio e il coautore del libro di testo sull'intelligenza artificiale "Artificial Intelligence: A Modern Approach" Stuart Russell Stuart Russell e altre note figure della tecnologia hanno firmato questa lettera aperta.

La lettera aperta afferma che “l’intelligenza artificiale avanzata può significare profondi cambiamenti nella storia della vita sulla terra, e dovremmo investire un’adeguata attenzione e risorse nella pianificazione e nella gestione di essa. Ma ora l’intelligenza artificiale è caduta in una corsa fuori controllo”. e gli sviluppatori non sono in grado di prevederlo e controllarlo in modo affidabile.

La lettera aperta menziona anche che i sistemi di intelligenza artificiale contemporanei stanno diventando competitivi con gli esseri umani su compiti generali. "I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando siamo sicuri che i loro effetti siano positivi e i loro rischi siano controllabili".

Secondo l’idea della lettera aperta, l’addestramento dei sistemi di intelligenza artificiale più potenti di GPT-4 dovrebbe essere sospeso per 6 mesi. Durante questa pausa, i laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero lavorare insieme per sviluppare e implementare una serie condivisa di protocolli di sicurezza per la progettazione e lo sviluppo avanzati di intelligenza artificiale, soggetti a rigorosi controlli e supervisione da parte di esperti esterni indipendenti.

Questi protocolli dovrebbero garantire che i loro sistemi siano sicuri e oltre ogni ragionevole dubbio. Ciò non significa una moratoria sullo sviluppo dell’intelligenza artificiale in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli a scatola nera più grandi e imprevedibili.

La lettera è stata pubblicata sul sito web del Future of Life Institute, che è finanziato principalmente dalla Musk Foundation, da Founders Pledge e dalla Silicon Valley Community Foundation, e la sua missione è guidare le tecnologie trasformative su larga scala rischi e verso una vita di benedizione.

Già nel 2017, il Future of Life Institute ha convocato più di 100 leader di pensiero e ricercatori nei campi dell’economia, del diritto, dell’etica e della filosofia per riunirsi in California per discutere e formulare principi per un’intelligenza artificiale benefica. Alla fine, hanno formulato 23 principi di intelligenza artificiale di Asilomar, considerati principi importanti per la governance dell’intelligenza artificiale. Il primo di questi è "L'obiettivo della ricerca sull'intelligenza artificiale dovrebbe essere quello di stabilire un'intelligenza benefica, non un'intelligenza disordinata".

Per i lavoratori tecnologici che hanno firmato questa lettera aperta, la maggior parte delle persone è preoccupata che l’intelligenza artificiale si stia sviluppando troppo velocemente, che la supervisione e le leggi pertinenti non abbiano tenuto il passo e che anche gli inventori non dispongano di metodi di controllo efficaci. In tali condizioni, l’uso illimitato dell’IA potrebbe comportare rischi sistemici in caso di problemi.

Secondo Time Magazine, Simon Campos, firmatario della lettera aperta e amministratore delegato della startup di sicurezza dell'intelligenza artificiale SaferAI, ha affermato che gli inventori dei sistemi di intelligenza artificiale non sanno esattamente come funzionano o cosa sono, quindi non riescono a gestire i rischi del sistema. L'inventore ha la capacità di farlo, ma non sa come limitare il comportamento dell'IA.

"Cosa stiamo facendo adesso?", disse Campos. "Stiamo lavorando a pieno ritmo per espandere questi sistemi a livelli di capacità senza precedenti e avere un impatto trasformativo sulla società. Dobbiamo rallentare lo sviluppo di questi sistemi e consentire alla società di adattarsi".

La preoccupazione di Musk: l’IA che non può essere disattivata

Musk è da tempo diffidente nei confronti dell’intelligenza artificiale e già nel 2014 aveva dichiarato pubblicamente in un’intervista che dovremmo stare molto attenti all’intelligenza artificiale intelligenza. "Con l'intelligenza artificiale, gli esseri umani evocano il diavolo", ha detto Musk.

Ha anche detto: "Sono sempre più propenso a pensare che dovrebbe esserci una supervisione normativa, magari a livello nazionale e internazionale, solo per essere sicuri di non fare qualcosa di veramente stupido".

Musk non parla solo di problemi di sicurezza dell’IA. All’inizio del 2015, Musk ha donato 7 milioni di dollari al Future of Life Institute per condurre una ricerca volta a far sì che l’intelligenza artificiale avvantaggi l’umanità. La maggior parte dei beneficiari è impegnata nella ricerca sull'etica, la governance e la sicurezza dell'intelligenza artificiale. Molti beneficiari, come Stuart Russell, hanno partecipato alla firma di questa lettera aperta.

Essendo uno dei primi investitori in DeepMind, Musk sembra alquanto ambivalente riguardo all’intelligenza artificiale. Ma ha affermato che il suo investimento non è stato effettuato dal punto di vista del ritorno sull’investimento, ma voleva solo prestare attenzione allo sviluppo dell’intelligenza artificiale, perché ciò potrebbe portare a risultati pericolosi. Ci sono alcune conseguenze disastrose, ha detto, e dovremmo lavorare per assicurarci che le conseguenze siano buone, non cattive. "

Il risultato negativo non è che i robot si ribellino e sterminino gli esseri umani, come illustrato nel film. Gli esperti, invece, non si preoccupano della coscienza dei robot, ma delle loro capacità. L’intelligenza artificiale ha una potente capacità di raggiungere i suoi obiettivi, ma se sfugge al controllo o si discosta dallo scenario di utilizzo pianificato, potrebbe causare danni irreversibili.

Una persona importante che ha firmato la lettera aperta, il vincitore del Premio Turing Joshua Bengio, conosciuto come il "Padrino dell'intelligenza artificiale", è da sempre preoccupato per l'abuso dell'intelligenza artificiale. Nel 2018, Bengio è stato uno delle migliaia di ricercatori sull’intelligenza artificiale che hanno firmato un impegno per opporsi allo sviluppo di armi basate sull’intelligenza artificiale. Ha invitato i governi a regolamentare la ricerca sull’intelligenza artificiale e a fermare lo sviluppo di robot mortali.

Le armi IA sono un esempio estremo di abuso dei robot. Le armi IA sono più efficienti delle armi tradizionali quando vengono utilizzate sul campo di battaglia. Tuttavia, una volta fuori controllo, i problemi causati dalle armi di intelligenza artificiale saranno più gravi. Sul campo di battaglia, per evitare malfunzionamenti in caso di semplice interferenza, le attuali armi IA sono spesso progettate per essere difficili da spegnere direttamente. Immaginate le tragiche conseguenze se armi IA altamente efficaci programmate per attaccare gli esseri umani cadessero accidentalmente in aree civili.

In effetti, come disattivare l’intelligenza artificiale è un problema di cui si preoccupano molti esperti di firme.

Ma se l’applicazione dell’intelligenza artificiale si sviluppa troppo velocemente, disattivarla potrebbe richiedere costi enormi e diventare difficile. Musk ha immaginato che se un algoritmo perde il controllo in un sistema, i manager possono trovarlo. Ma se questo sistema è gestito da una grande IA, potremmo non essere in grado di trovare il punto in cui è fuori controllo, o potremmo non avere l’autorità per fermare il funzionamento dell’intera grande IA. La semplice manutenzione può diventare un problema.

Questo è il motivo per cui l’intelligenza artificiale necessita di maggiore regolamentazione e la tecnologia deve essere più democratica anziché concentrata nelle mani delle grandi aziende.

Per evitare che il potere dell’intelligenza artificiale si concentri nelle mani delle grandi aziende, in particolare di Google DeepMind, Musk e Sam Altman hanno co-fondato OpenAI con l’obiettivo di democratizzare il potere dell’intelligenza artificiale e ridurre la possibilità dell’intelligenza artificiale essere monopolizzato.

Ciò è alquanto ironico. GPT-4, creato da OpenAI, è esattamente ciò a cui Musk si oppone attualmente. Solo pochi giorni fa, Musk aveva un litigio verbale con il CEO di OpenAI Sam Altman.

Smettila: "Allineiamoci".

Oltre alle preoccupazioni di questi pezzi grossi, tra il pubblico più ampio c’è da tempo una paura nei confronti dell’intelligenza artificiale.

Tra questi c'è la paura del computer superintelligente HAL 9000, divenuto noto nel film di fantascienza "2001: Odissea nello spazio", e c'è anche una paura più pratica del caos e delle brutte situazioni che potrebbero essere causate da L'intelligenza artificiale controlla il mondo.

In quella lettera aperta, uno dei materiali citati più volte era il libro più venduto "Alignment Problem", elogiato da molti grandi nomi nel campo dell'intelligenza artificiale, compresi i dirigenti Microsoft. Un co-fondatore del Future of Life Institute (FLI), che ha pubblicato la lettera aperta, ha elogiato pubblicamente il libro: "È pieno di scoperte sorprendenti, ostacoli inaspettati, soluzioni ingegnose e sempre più domande difficili sulla natura della vita". la nostra specie”. E il problema più grande discusso in quel libro è: l’etica dell’intelligenza artificiale.

Una delle questioni etiche più semplici sull’intelligenza artificiale è il problema delle graffette. Se a un robot viene ordinato di creare quante più graffette possibile, esaurirà tutte le risorse sulla terra e produrrà instancabilmente graffette il più a lungo possibile, perché il completamento di questo compito è correlato. non c'è conflitto con il codice morale, quindi tutto ciò che può fare è svolgere compiti. Nella lunga storia dell'umanità, un gran numero di norme morali, il nostro stupore e la nostra paura si sono consolidati nella nostra cultura e profondamente radicati nella mente di tutti. A volte noi stessi non ne siamo consapevoli e una macchina non ha vissuto una storia così lunga L'evoluzione dei bambini, come un bambino nato con dei superpoteri, diventa un rischio in sé.

Pertanto, Brian Christian, autore del libro "The Alignment Problem" e autore di best-seller e ora visiting study presso l'Università della California, Berkeley, ritiene che sia necessario rendere l'intelligenza artificiale più accurata, completa e in tempo reale. Allineamento etica ed etica umana. In questo senso, questa lettera aperta è come un reparto di una grande fabbrica che chiede ai dipendenti di interrompere ciò che stanno facendo e di andare nella sala conferenze: "Allineiamoci".

Naturalmente, oltre a discutere queste questioni apparentemente distanti, "Problemi di allineamento" discute anche questioni che stanno accadendo attualmente.

Uno stato degli Stati Uniti utilizza un programma informatico per valutare la probabilità di recidiva dei criminali, quindi decide sulla cauzione e sulla parola e assegna gli importi delle cauzioni. Tuttavia, è successo qualcosa di strano nel sistema. Borden, che era nero, è stato classificato come ad alto rischio, e Platt, che era bianco, è stato classificato come a basso rischio. Un'indagine di follow-up di due anni sui due ha scoperto che Borden non ha mai sperimentato alcun reato nei due anni di accusa, mentre Platt è stato condannato a otto anni di carcere per rapina e furto. Ovviamente, con i big data, anche la discriminazione razziale negli esseri umani è stata trapiantata nell’intelligenza artificiale, ma il problema principale è che tutti pensano di essere neonati ed è giusto. In "Alignment Issues", l'autore ha menzionato anche la discriminazione di genere nel reclutamento. Nessuno ha impostazioni per l'intelligenza artificiale. Tuttavia, con i big data, la discriminazione avviene naturalmente.

L’intelligenza artificiale basata sui big data può rafforzare i problemi ampiamente ignorati della discriminazione e della disuguaglianza nel nostro gruppo etnico. Una volta che questi problemi entrano nel sistema senza essere notati o considerati banali, si consolidano.

Pertanto, nei commenti dei lettori sul libro "Problemi di allineamento", molte persone hanno menzionato le persone: l'intelligenza artificiale sta amplificando i problemi esistenti dell'umanità e, soprattutto, a che tipo di persone verrà messa l'intelligenza artificiale nelle mani?

Non c’è quasi alcun dubbio che l’intelligenza artificiale porterà enormi aumenti di produttività, ma, come nel caso della precedente rivoluzione informatica, questo potente strumento lavorativo porterà ulteriormente alla concentrazione della ricchezza: dal 1980 a oggi, l’1% dei percettori più ricchi. della popolazione è aumentata dal 10% a quasi il 20%, mentre la quota di reddito del 50% più povero è scesa dal 20% del 1980 al 12%. Nessuno può immaginare come appariranno questi dati 40 anni dopo il lancio di GPT? Inoltre, questo è uno strumento più favorevole alla produttività del capitale.

Già nel febbraio di quest’anno, il professore del MIT Daron Acemoglu, da tempo preoccupato per le questioni relative all’intelligenza artificiale, ha pubblicato un articolo in cui menzionava il seguente scenario: le aziende licenziano il servizio clienti umano, un gran numero di persone perde il lavoro e i consumatori non possono che accettare un dipendente eloquente Ma il servizio di assistenza clienti del robot non può risolvere alcun problema. Un simile approccio “depotenzia e indebolirà i dipendenti e degraderà l’esperienza del consumatore, deludendo in definitiva la maggior parte degli investitori. Non dovremmo essere così”.

Questa lettera aperta non è la prima volta che le persone esprimono preoccupazioni sul futuro dell'intelligenza artificiale. Nella sua lettera aperta, Gates ha anche menzionato la necessità di prestare attenzione alla questione dell'uguaglianza nell'era dell'intelligenza artificiale: le forze del mercato non lo faranno naturalmente. produrre prodotti che aiutino le persone più povere. Con prodotti e servizi di intelligenza artificiale, la possibilità opposta sarà maggiore.

Già il 16 marzo Altman menzionava con preoccupazione che "i software in grado di pensare e apprendere svolgeranno sempre più il lavoro che le persone svolgono oggi. Una maggiore potenza sarà trasferita dal lavoro al capitale. Se il pubblico senza corrispondenti aggiustamenti politici, la maggior parte delle persone finirà per trovarsi in condizioni peggiori di quelle attuali."

Pertanto, Altman ha affermato che è necessario introdurre un nuovo sistema per tassare il capitale piuttosto che il lavoro, in modo che più persone possano condividere i frutti di questa rivoluzione dell’intelligenza artificiale.

Al momento, ci vorrà del tempo prima che l’intelligenza artificiale diventi l’infrastruttura della vita umana, ma questo tempo potrebbe scadere. Dopo l'emergere di GPT-4, le capacità dell'intelligenza artificiale su larga scala sono aumentate vertiginosamente nella "corsa agli armamenti". Le applicazioni dell'intelligenza artificiale potrebbero presto essere rese popolari in tutti gli aspetti della vita, ma non c'è tempo per aiutare l'intelligenza artificiale a testare la sicurezza e comprendere i bisogni umani e stabilire un piano di regolamentazione. Questo è il motivo per cui gli esperti dietro questa lettera aperta chiedono una moratoria sulla ricerca sull’intelligenza artificiale su larga scala.

Forse, come ha detto il capo scienziato di Microsoft Eric Horvitz: oggi, nell’intelligenza artificiale all’orizzonte, alcune cose sono note, altre sono sconosciute, e il centro è la porta che ci resta per osservare il mondo.