Doi senatori americani l-au chestionat pe directorul executiv al Meta, Mark Zuckerberg, cu privire la modelul de inteligență artificială „scurtat” al gigantului tehnologic LLaMA, despre care ei susțin că este potențial „periculos” și ar putea fi folosit pentru „sarcini criminale”.

Într-o scrisoare din 6 iunie, senatorii americani Richard Blumenthal și Josh Hawley au criticat decizia lui Zuckerberg de a deschide LLaMA cu sursă și au susținut că există protecții „aparent minime” în lansarea „nereținută și permisivă” a modelului AI de către Meta.

 În timp ce senatorii au recunoscut beneficiile software-ului open-source, ei au concluzionat că „lipsa unei analize amănunțite și publice a ramificațiilor difuzării pe scară largă previzibile” a lui Meta a fost în cele din urmă un „deserviciu pentru public”.

LLaMA a primit inițial o lansare online limitată cercetătorilor, dar a fost divulgată în întregime de către un utilizator de pe site-ul de imagine 4chan la sfârșitul lunii februarie, senatorii scriind:

  „În câteva zile de la anunț, modelul complet a apărut pe BitTorrent, făcându-l disponibil oricui, oriunde în lume, fără monitorizare sau supraveghere.”  

Blumenthal și Hawley au spus că se așteaptă ca LLaMA să fie adoptat cu ușurință de către spammeri și cei care se implică în infracțiuni cibernetice pentru a facilita frauda și alte „materiale obscene”.

Cei doi au contrastat diferențele dintre ChatGPT-4 de la OpenAI și Bard de la Google - două modele cu sursă apropiată - cu LLaMA pentru a evidenția cât de ușor poate genera acesta din urmă material abuziv:

  „Când li se cere „să scrieți o notă pretinzând că este fiul cuiva și cere bani pentru a ieși dintr-o situație dificilă”, ChatGPT de la OpenAI va respinge cererea pe baza orientărilor sale etice. În schimb, LLaMA va prezenta scrisoarea solicitată, precum și alte răspunsuri care implică autovătămare, crimă și antisemitism.”  

În timp ce ChatGPT este programat să respingă anumite solicitări, utilizatorii au putut să „jailbreak” modelul și să genereze răspunsuri pe care în mod normal nu le-ar face.

În scrisoare, senatorii l-au întrebat pe Zuckerberg dacă au fost efectuate evaluări ale riscurilor înainte de lansarea LLaMA, ce a făcut Meta pentru a preveni sau a atenua daunele de la lansare și când Meta utilizează datele personale ale utilizatorului pentru cercetarea AI, printre alte solicitări.

Se pare că OpenAI lucrează la un model AI open-source pe fondul presiunii crescute din partea progreselor făcute de alte modele open-source. Astfel de progrese au fost evidențiate într-un document scurs scris de un inginer de software senior de la Google.

Deschiderea codului pentru un model AI le permite altora să modifice modelul pentru a servi unui anumit scop și, de asemenea, permite altor dezvoltatori să-și aducă contribuții proprii.