
La două săptămâni după lansarea GPT-4, o scrisoare deschisă semnată de Elon Musk și de mii de oameni din industria tehnologiei a fost lansată online. Scrisoarea deschisă solicită tuturor laboratoarelor de inteligență artificială să suspende imediat pregătirea sistemelor de inteligență artificială mai puternice decât GPT-4 pentru cel puțin 6 luni.
Cofondatorul Apple Steve Wozniak, câștigătorul premiului Turing Yoshua Bengio și coautorul manualului de inteligență artificială „Artificial Intelligence: A Modern Approach” Stuart Russell Stuart Russell și alte personalități cunoscute ale tehnologiei au semnat această scrisoare deschisă.
Scrisoarea deschisă susține că „IA avansată poate însemna schimbări profunde în istoria vieții pe pământ și ar trebui să investim atenție și resurse proporționale în planificarea și gestionarea acesteia, dar acum inteligența artificială a căzut într-o cursă scăpată de sub control”. iar dezvoltatorii nu o pot înțelege și să controleze în mod fiabil.
Scrisoarea deschisă a menționat, de asemenea, că sistemele contemporane de inteligență artificială devin acum competitive cu oamenii în sarcini generale „Sistemele puternice de inteligență artificială ar trebui să fie dezvoltate numai atunci când suntem încrezători că efectele lor sunt pozitive și riscurile lor sunt controlabile”.
Conform ideii scrisorii deschise, antrenamentul sistemelor AI mai puternice decât GPT-4 ar trebui suspendat timp de 6 luni. În această pauză, laboratoarele de inteligență artificială și experții independenți ar trebui să lucreze împreună pentru a dezvolta și implementa un set comun de protocoale de securitate pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, supuse auditării și supravegherii riguroase de către experți externi independenți.
Aceste protocoale ar trebui să asigure că sistemele lor sunt sigure și dincolo de orice îndoială rezonabilă. Acest lucru nu înseamnă un moratoriu asupra dezvoltării AI în general, ci doar un pas înapoi de la cursa periculoasă către modele mai mari, imprevizibile, cutie neagră.
Scrisoarea a fost postată pe site-ul Future of Life Institute, care este finanțat în principal de Musk Foundation, Founders Pledge și Silicon Valley Community Foundation, iar misiunea sa este de a ghida tehnologiile de transformare la scară extremă riscuri și spre o viață de binecuvântare.
Încă din 2017, Institutul Viitorul Vieții a reunit peste 100 de lideri de gândire și cercetători din domeniile economiei, dreptului, eticii și filosofiei pentru a se reuni în California pentru a discuta și a formula principii pentru inteligența artificială benefică. În cele din urmă, au formulat 23 de principii de inteligență artificială Asilomar, care sunt considerate principii importante pentru guvernarea inteligenței artificiale. Prima dintre acestea este „Scopul cercetării în domeniul inteligenței artificiale ar trebui să fie stabilirea unei inteligențe benefice, nu a unei inteligențe dezordonate”.
Pentru lucrătorii din domeniul tehnologiei care au semnat această scrisoare deschisă, cei mai mulți oameni sunt îngrijorați de faptul că AI se dezvoltă prea repede, de supravegherea relevantă și de legile nu au ținut pasul și chiar și inventatorilor le lipsesc metode de control eficiente. În astfel de condiții, utilizarea nerestricționată a IA poate aduce riscuri sistemice dacă apar probleme.
Potrivit Time Magazine, Simon Campos, semnatar al scrisorii deschise și CEO al startup-ului de securitate pentru inteligența artificială SaferAI, a spus că inventatorii sistemelor AI nu știu exact cum funcționează sau ce sunt, deci eșecul în gestionarea riscurilor sistemului. Inventatorul are capacitatea de a face acest lucru, dar nu știe cum să limiteze comportamentul AI.
— Ce facem acum? a spus Campos. „Lucrăm la viteză maximă pentru a extinde aceste sisteme la niveluri fără precedent de capacitate și pentru a avea un impact transformator asupra societății. Trebuie să încetinim dezvoltarea acestor sisteme și să permitem societății să se adapteze”.
Îngrijorarea lui Musk: AI care nu poate fi dezactivată
Musk se tem de AI de multă vreme Încă din 2014, Musk a declarat public într-un interviu că ar trebui să fim foarte atenți la inteligența artificială, dacă ar trebui să ghicim care este cea mai mare amenințare pentru existența umană inteligenţă. „Cu inteligența artificială, oamenii îl invocă pe diavol”, a spus Musk.
El a mai spus: „Sunt din ce în ce mai înclinat să cred că ar trebui să existe o supraveghere reglementară, poate la nivel național și internațional, doar pentru a ne asigura că nu facem ceva cu adevărat stupid”.
Musk nu vorbește doar despre probleme de siguranță AI. La începutul lui 2015, Musk a donat 7 milioane de dolari Institutului Future of Life pentru a efectua cercetări menite să facă AI să beneficieze omenirea. Majoritatea beneficiarilor de granturi sunt implicați în cercetări privind etica, guvernarea și securitatea AI Mulți beneficiari, precum Stuart Russell, au participat la semnarea acestei scrisori deschise.
În calitate de investitor timpuriu în DeepMind, Musk pare oarecum ambivalent în ceea ce privește AI. Dar el a susținut că investiția sa nu a fost din perspectiva rentabilității investiției, ci a vrut doar să acorde atenție dezvoltării inteligenței artificiale, deoarece aceasta poate duce la rezultate periculoase. Există câteva consecințe îngrozitoare, a spus el, și ar trebui să lucrăm pentru a ne asigura că consecințele sunt bune, nu rele. "
Rezultatul rău nu este că roboții se răzvrătesc și distrug oamenii, așa cum este descris în film. În schimb, experții nu se îngrijorează de conștiința roboților, ci de abilitățile acestora. AI are o capacitate puternică de a-și atinge obiectivele, dar dacă scapă de sub control sau se abate de la scenariul de utilizare planificată, poate provoca daune ireversibile.
O persoană importantă care a semnat scrisoarea deschisă, câștigătorul premiului Turing Joshua Bengio, cunoscut drept „Nașul AI”, a fost întotdeauna îngrijorat de abuzul de inteligență artificială. În 2018, Bengio a fost unul dintre miile de cercetători în inteligența artificială care au semnat un angajament de a se opune dezvoltării armelor AI. El a cerut guvernelor să reglementeze cercetarea în domeniul inteligenței artificiale și să oprească dezvoltarea roboților mortali.
Armele AI sunt un exemplu extrem de abuz de roboți. Armele AI sunt mai eficiente decât armele tradiționale atunci când sunt folosite pe câmpul de luptă. Cu toate acestea, odată scăpate de sub control, problemele cauzate de armele cu inteligență artificială vor fi mai grave. Pe câmpul de luptă, pentru a nu funcționa defectuos în cazul unei simple interferențe, armele actuale AI sunt adesea concepute pentru a fi dificil de oprit direct. Imaginați-vă consecințele tragice dacă armele AI extrem de eficiente, programate pentru a ataca oamenii, cad accidental în zone civile.
De fapt, cum să dezactivați AI este o problemă de care mulți experți în semnături își fac griji.
Dar dacă aplicarea AI se dezvoltă prea repede, oprirea acesteia poate necesita costuri uriașe și poate deveni dificilă. Musk și-a imaginat că, dacă un algoritm scapă de sub control într-un sistem, managerii îl pot găsi. Dar dacă acest sistem este gestionat de o IA mare, este posibil să nu putem găsi punctul în care este scăpat de sub control sau este posibil să nu avem autoritatea de a opri funcționarea întregului IA mare. Întreținerea simplă poate deveni o problemă.
Acesta este motivul pentru care AI are nevoie de mai multe reglementări, iar tehnologia trebuie să fie mai democratică decât concentrată în mâinile marilor companii.
Pentru a preveni concentrarea puterii inteligenței artificiale în mâinile marilor companii, în special Google DeepMind, Musk și Sam Altman au co-fondat OpenAI cu scopul de a democratiza puterea inteligenței artificiale și de a reduce puterea AI fiind monopolizat.
Acest lucru este oarecum ironic GPT-4, creat de OpenAI, este exact ceea ce Musk se opune în prezent. Cu doar câteva zile în urmă, Musk avea o discuție verbală cu CEO-ul OpenAI, Sam Altman.
Oprește-te, „Hai să ne aliniem”.
Pe lângă grijile acestor băieți mari, în rândul publicului larg, a existat o teamă de lungă durată de AI.
Printre acestea, se numără și frica de computerul super-inteligent HAL 9000 care a căpătat conștiință în filmul științifico-fantastic „2001: A Space Odyssey”, și există și o teamă mai practică de haosul și situațiile proaste care pot fi cauzate de AI controlează lumea.
În acea scrisoare deschisă, unul dintre materialele citate de multe ori a fost cea mai bine vândută carte „Alignment Problem” care a fost lăudată de multe nume mari din domeniul inteligenței artificiale, inclusiv de directori Microsoft. Un co-fondator al Institutului Viitorul Vieții (FLI), care a publicat scrisoarea deschisă, a lăudat public cartea: „Este plină de descoperiri uimitoare, obstacole neașteptate, soluții ingenioase și multe și multe întrebări dificile despre natura specia noastră.” Și cea mai mare problemă discutată în acea carte este: etica inteligenței artificiale.
Una dintre cele mai simple probleme etice ale inteligenței artificiale este problema agrafelor Dacă unui robot i se ordonă să facă cât mai multe agrafe, acesta va epuiza toate resursele de pe pământ și va face neobosit agrafe cât mai lung posibil, deoarece finalizarea acestei sarcini este legată. nu există nici un conflict cu codul moral, atunci tot ce poate face este să îndeplinească sarcini. În lunga istorie a omenirii, un număr mare de norme morale, admirația și frica noastră s-au solidificat în cultura noastră și s-au înrădăcinat adânc în mintea fiecăruia Uneori, noi înșine nu suntem conștienți de asta, iar o mașinărie nu a experimentat o istorie atât de lungă . Evoluția copiilor, ca un copil născut cu superputeri, devine un risc în sine.
Prin urmare, Brian Christian, autorul cărții „The Alignment Problem” și un autor de best-seller, care este acum un savant invitat la Universitatea din California, Berkeley, consideră că este necesar să se realizeze AI cu atenție, cuprinzător și în timp real. etica şi etica umană consecventă. În acest sens, această scrisoare deschisă este ca un departament dintr-o fabrică mare care le cere angajaților să se oprească din ceea ce fac și să meargă în sala de conferințe, „Hai să ne aliniem”.
Desigur, pe lângă discuțiile despre aceste probleme aparent îndepărtate, „Problemele de aliniere” discută și problemele care se întâmplă în prezent.
Un stat din Statele Unite folosește un program de calculator pentru a evalua probabilitatea de recidivă a infractorilor, apoi decide asupra cauțiunii și eliberării condiționate și alocă sume de obligațiuni. Cu toate acestea, ceva ciudat sa întâmplat în sistem, Borden, care era negru, a fost evaluat ca fiind cu risc ridicat, iar Platt, care era alb, a fost evaluat ca risc scăzut orice crimă în cei doi ani, în timp ce Platt a fost condamnat la opt ani de închisoare pentru tâlhărie și furt. Evident, în baza datelor mari, discriminarea rasială la oameni a fost și ea transplantată în inteligența artificială - dar problema cheie este că toată lumea crede că sunt nou-născuți și este corect. În „Probleme de aliniere”, autorul a menționat și discriminarea de gen în recrutare. Cu toate acestea, în cazul datelor mari, discriminarea apare în mod natural.
Inteligența artificială bazată pe date mari poate consolida problemele larg ignorate ale discriminării și inegalității în grupul nostru etnic, odată ce aceste probleme intră în sistem fără a fi observate sau considerate banale, acesta ar fi un final foarte nefericit.
Prin urmare, în comentariile cititorilor la cartea „Probleme de aliniere”, mulți oameni au menționat oameni - AI amplifică problemele existente ale omenirii și, cel mai important, ce fel de oameni va fi pus AI în mâinile?
Aproape că nu există nicio îndoială că inteligența artificială va aduce creșteri uriașe ale productivității, dar ca și în cazul revoluției informaționale anterioare, acest instrument puternic de muncă va duce și mai mult la concentrarea bogăției - din 1980 până în prezent, cei mai mari 1% dintre cei care câștigă venituri. din populație a crescut de la 10% la aproape 20%, în timp ce ponderea veniturilor celor mai mici 50% a scăzut de la 20% în 1980 la 12%. Nimeni nu își poate imagina cum vor arăta aceste date la 40 de ani de la lansarea GPT? În plus, acesta este un instrument de productivitate mai pro-capital.
Încă din februarie a acestui an, profesorul MIT Daron Acemoglu, care a fost mult timp preocupat de problemele inteligenței artificiale, a publicat un articol în care menționează următorul scenariu: companiile au concediat serviciul pentru clienți umani, un număr mare de oameni și-au pierdut locurile de muncă, iar consumatorii nu pot decât să accepte un angajat elocvent Dar serviciul pentru clienți robot nu poate rezolva nicio problemă. O astfel de abordare „va dezamăgi angajații și va degrada experiența consumatorului, dezamăgindu-i în cele din urmă majoritatea investitorilor. Nu ar trebui să fim așa”.
Această scrisoare deschisă nu este prima dată când oamenii își exprimă îngrijorarea cu privire la viitorul inteligenței artificiale. În scrisoarea sa deschisă, Gates a menționat, de asemenea, necesitatea de a acorda atenție problemei egalității în era inteligenței artificiale: forțele pieței nu vor fi în mod natural. produce produse care îi ajută pe cei mai săraci cu produse și servicii de inteligență artificială, posibilitatea inversă va fi mai mare.
Încă din 16 martie, Altman a menționat, de asemenea, cu îngrijorare că „software-ul care poate gândi și învăța va face din ce în ce mai mult din munca pe care o fac oamenii acum. Mai multă putere va fi transferată de la muncă la capital. Dacă publicul Fără ajustările corespunzătoare de politică, cei mai mulți oameni vor ajunge mai rău decât acum”.
Prin urmare, Altman a menționat că trebuie introdus un nou sistem de impozitare a capitalului, mai degrabă decât a muncii, astfel încât mai mulți oameni să poată împărtăși roadele acestei revoluții ale inteligenței artificiale.
În prezent, va dura ceva timp pentru ca AI să devină infrastructura vieții umane, dar de data aceasta se poate epuiza. După apariția GPT-4, capacitățile AI la scară largă au crescut în „cursa înarmărilor” aplicațiile AI pot fi populare în curând în toate aspectele vieții, dar nu există timp pentru a ajuta AI să testeze siguranța, să înțeleagă nevoile umane. și să stabilească un plan de reglementare. Acesta este motivul pentru care experții din spatele acestei scrisori deschise solicită un moratoriu asupra cercetării AI la scară largă.
Poate, așa cum a spus omul de știință șef Microsoft Eric Horvitz: Astăzi, în inteligența artificială de la orizont, unele lucruri sunt cunoscute, altele sunt necunoscute, iar mijlocul este ușa lăsată pentru ca noi să observăm lumea.