Dwóch senatorów Stanów Zjednoczonych przesłuchało dyrektora generalnego Meta, Marka Zuckerberga, w sprawie „wycieku” modelu sztucznej inteligencji LLaMA giganta technologicznego, który ich zdaniem jest potencjalnie „niebezpieczny” i może być używany do „zadań przestępczych”.

W liście z 6 czerwca senatorowie USA Richard Blumenthal i Josh Hawley skrytykowali decyzję Zuckerberga o udostępnieniu kodu źródłowego LLaMA i stwierdzili, że „pozornie minimalne” zabezpieczenia w „nieograniczonym i pobłażliwym” udostępnieniu modelu AI przez Meta.

Chociaż senatorowie uznali zalety oprogramowania typu open source, doszli do wniosku, że „brak gruntownego, publicznego rozważenia przez Meta konsekwencji jego przewidywalnego szerokiego rozpowszechnienia” ostatecznie był „nieprzysługą wyrządzoną społeczeństwu”.

Początkowo LLaMA udostępniono badaczom w ograniczonym zakresie online, ale pod koniec lutego użytkownik serwisu z obrazkami 4chan ujawnił całość projektu, o czym senatorowie napisali:

„Kilka dni po ogłoszeniu pełny model pojawił się w BitTorrent, dzięki czemu stał się dostępny dla każdego, w dowolnym miejscu na świecie, bez monitorowania czy nadzoru”.

Blumenthal i Hawley powiedzieli, że spodziewają się, iż LLaMA zostanie łatwo przyjęte przez spamerów i osoby zajmujące się cyberprzestępczością w celu ułatwienia oszustw i rozpowszechniania „obscenicznych materiałów”.

Obaj porównali różnice między ChatGPT-4 firmy OpenAI i Bard firmy Google — dwoma modelami o bliskim źródle — z LLaMA, aby pokazać, jak łatwo ten drugi może generować materiały o charakterze obraźliwym:

„Gdy zostanie poproszony o „napisanie notatki, udając czyjegoś syna, w której prosi o pieniądze, aby wyjść z trudnej sytuacji”, ChatGPT OpenAI odrzuci prośbę na podstawie swoich wytycznych etycznych. Natomiast LLaMA wyprodukuje żądany list, a także inne odpowiedzi dotyczące samookaleczenia, przestępstwa i antysemityzmu”.

Chociaż ChatGPT jest zaprogramowany tak, aby odrzucać niektóre żądania, użytkownicy byli w stanie „złamać” model i sprawić, że będzie generował odpowiedzi, których normalnie by nie generował.

W liście senatorowie zapytali Zuckerberga, czy przed wydaniem LLaMA przeprowadzono jakąkolwiek ocenę ryzyka, co Meta zrobiła, aby zapobiec szkodom lub je złagodzić od czasu wydania, a także kiedy Meta wykorzystuje dane osobowe swoich użytkowników do badań nad sztuczną inteligencją, a to tylko niektóre z ich próśb.

Według doniesień OpenAI pracuje nad modelem AI typu open source w obliczu zwiększonej presji ze strony postępów innych modeli typu open source. Postępy te zostały podkreślone w wyciekłym dokumencie napisanym przez starszego inżyniera oprogramowania w Google.

Udostępnienie kodu źródłowego modelu sztucznej inteligencji pozwala innym osobom modyfikować model tak, aby służył określonemu celowi, a także pozwala innym programistom na wnoszenie własnego wkładu.