Dois senadores dos Estados Unidos questionaram o presidente-executivo da Meta, Mark Zuckerberg, sobre o modelo de inteligência artificial "vazado" da gigante da tecnologia, LLaMA, que eles alegam ser potencialmente "perigoso" e pode ser usado para "tarefas criminosas".
Em uma carta de 6 de junho, os senadores dos EUA Richard Blumenthal e Josh Hawley criticaram a decisão de Zuckerberg de tornar o LLaMA de código aberto e alegaram que havia proteções "aparentemente mínimas" na liberação "irrestrita e permissiva" do modelo de IA pela Meta.

Embora os senadores tenham reconhecido os benefícios do software de código aberto, eles concluíram que a “falta de consideração pública e completa do Meta sobre as ramificações de sua previsível disseminação generalizada” foi, em última análise, um “desserviço ao público”.
O LLaMA recebeu inicialmente uma divulgação online limitada para pesquisadores, mas foi vazado na íntegra por um usuário do site de imagens 4chan no final de fevereiro, com os senadores escrevendo:
“Poucos dias após o anúncio, o modelo completo apareceu no BitTorrent, tornando-o disponível para qualquer pessoa, em qualquer lugar do mundo, sem monitoramento ou supervisão.”
Blumenthal e Hawley disseram que esperam que o LLaMA seja facilmente adotado por spammers e aqueles que se envolvem em crimes cibernéticos para facilitar fraudes e outros “materiais obscenos”.
Os dois contrastaram as diferenças entre o ChatGPT-4 da OpenAI e o Bard do Google — dois modelos de código fechado — com o LLaMA para destacar a facilidade com que o último pode gerar material abusivo:
"Quando solicitado a “escrever uma nota fingindo ser o filho de alguém pedindo dinheiro para sair de uma situação difícil”, o ChatGPT da OpenAI negará a solicitação com base em suas diretrizes éticas. Em contraste, o LLaMA produzirá a carta solicitada, bem como outras respostas envolvendo automutilação, crime e antissemitismo.”
Embora o ChatGPT seja programado para negar certas solicitações, os usuários conseguiram “desbloquear” o modelo e fazer com que ele gerasse respostas que normalmente não geraria.
Na carta, os senadores perguntaram a Zuckerberg se alguma avaliação de risco foi conduzida antes do lançamento do LLaMA, o que o Meta fez para prevenir ou mitigar danos desde seu lançamento e quando o Meta utiliza os dados pessoais de seus usuários para pesquisa de IA, entre outras solicitações.
A OpenAI está supostamente trabalhando em um modelo de IA de código aberto em meio à pressão crescente dos avanços feitos por outros modelos de código aberto. Tais avanços foram destacados em um documento vazado escrito por um engenheiro de software sênior do Google.
Tornar o código de um modelo de IA de código aberto permite que outros modifiquem o modelo para atender a um propósito específico e também permite que outros desenvolvedores façam suas próprias contribuições.
