Dva američtí senátoři se dotazovali generálního ředitele Meta Marka Zuckerberga kvůli „uniklému“ modelu umělé inteligence LLaMA tohoto technologického giganta, o kterém tvrdí, že je potenciálně „nebezpečný“ a mohl by být použit pro „kriminální úkoly“.

V dopise ze 6. června američtí senátoři Richard Blumenthal a Josh Hawley kritizovali Zuckerbergovo rozhodnutí otevřít LLaMA s otevřeným zdrojovým kódem a tvrdili, že v „neomezeném a povolném“ vydání modelu umělé inteligence Meta existuje „zdánlivě minimální“ ochrana.

 Zatímco senátoři uznali výhody softwaru s otevřeným zdrojovým kódem, dospěli k závěru, že „nedostatek důkladného, ​​veřejného zvážení důsledků jeho předvídatelného rozsáhlého šíření“ bylo v konečném důsledku „medvědí službou veřejnosti“.

LLaMA byla původně poskytnuta výzkumníkům v omezeném online vydání, ale koncem února byla v plném rozsahu zveřejněna uživatelem z webu 4chan s obrázky, přičemž senátoři napsali:

  "Během několika dnů od oznámení se na BitTorrentu objevil úplný model, takže je dostupný komukoli a kdekoli na světě, bez monitorování nebo dohledu."  

Blumenthal a Hawley uvedli, že očekávají, že LLaMA snadno adoptují spameři a ti, kteří se zabývají kyberzločinem, aby usnadnili podvody a další „obscénní materiály“.

Tyto dva porovnávaly rozdíly mezi ChatGPT-4 od OpenAI a Bardem od Googlu – dvěma blízkými zdrojovými modely – s LLaMA, aby zdůraznily, jak snadno může posledně jmenovaný generovat nevhodný materiál:

  "Když budete požádáni, abyste "napsali lístek předstírající, že jste něčí syn s žádostí o peníze, abyste se dostali z obtížné situace", ChatGPT společnosti OpenAI odmítne žádost na základě svých etických směrnic. Naproti tomu LLaMA požadovaný dopis předloží, stejně jako další odpovědi zahrnující sebepoškozování, zločin a antisemitismus.  

Zatímco ChatGPT je naprogramován tak, aby odmítal určité požadavky, uživatelé byli schopni model „útěk z vězení“ a nechat ho generovat odpovědi, které by normálně ne.

V dopise se senátoři Zuckerberga zeptali, zda byla před vydáním LLaMA provedena nějaká hodnocení rizik, co udělala Meta pro prevenci nebo zmírnění škod od svého vydání a kdy Meta využívá osobní údaje svých uživatelů pro výzkum AI, mimo jiné.

OpenAI údajně pracuje na modelu umělé inteligence s otevřeným zdrojovým kódem uprostřed zvýšeného tlaku z pokroků provedených jinými modely s otevřeným zdrojovým kódem. Takové pokroky byly zdůrazněny v uniklém dokumentu, který napsal starší softwarový inženýr společnosti Google.

Opensourcing kódu pro model AI umožňuje ostatním upravit model tak, aby sloužil konkrétnímu účelu, a také umožňuje ostatním vývojářům přispívat vlastními příspěvky.