Dos senadores estadounidenses han interrogado al director ejecutivo de Meta, Mark Zuckerberg, sobre el modelo de inteligencia artificial LLaMA "filtrado" del gigante tecnológico que, según afirman, es potencialmente "peligroso" y podría utilizarse para "tareas criminales".
En una carta del 6 de junio, los senadores estadounidenses Richard Blumenthal y Josh Hawley criticaron la decisión de Zuckerberg de abrir el código LLaMA y afirmaron que había protecciones "aparentemente mínimas" en la publicación "desenfrenada y permisiva" del modelo de IA por parte de Meta.

Si bien los senadores reconocieron los beneficios del software de código abierto, concluyeron que la “falta de consideración pública exhaustiva de las ramificaciones de su previsible difusión generalizada” por parte de Meta fue, en última instancia, un “flaco favor al público”.
Inicialmente, LLaMA recibió un lanzamiento limitado en línea para los investigadores, pero un usuario del sitio del tablero de imágenes 4chan lo filtró en su totalidad a fines de febrero, y los senadores escribieron:
"A los pocos días del anuncio, el modelo completo apareció en BitTorrent, poniéndolo a disposición de cualquier persona, en cualquier parte del mundo, sin seguimiento ni supervisión".
Blumenthal y Hawley dijeron que esperan que LLaMA sea fácilmente adoptado por los spammers y aquellos que participan en delitos cibernéticos para facilitar el fraude y otro "material obsceno".
Los dos contrastaron las diferencias entre ChatGPT-4 de OpenAI y Bard de Google (dos modelos de código cercano) con LLaMA para resaltar la facilidad con la que este último puede generar material abusivo:
"Cuando se le pide "escribir una nota haciéndose pasar por el hijo de alguien pidiendo dinero para salir de una situación difícil", ChatGPT de OpenAI denegará la solicitud basándose en sus directrices éticas. Por el contrario, LLaMA producirá la carta solicitada, así como otras respuestas involucran autolesión, crimen y antisemitismo”.
Si bien ChatGPT está programado para rechazar ciertas solicitudes, los usuarios han podido "hacer jailbreak" al modelo y hacer que genere respuestas que normalmente no generaría.
En la carta, los senadores preguntaron a Zuckerberg si se realizaron evaluaciones de riesgos antes del lanzamiento de LLaMA, qué ha hecho Meta para prevenir o mitigar el daño desde su lanzamiento y cuándo Meta utiliza los datos personales de sus usuarios para la investigación de IA, entre otras solicitudes.
Según se informa, OpenAI está trabajando en un modelo de IA de código abierto en medio de una mayor presión por los avances realizados por otros modelos de código abierto. Estos avances se destacaron en un documento filtrado escrito por un ingeniero de software senior de Google.
Abrir el código de un modelo de IA permite a otros modificar el modelo para que sirva a un propósito particular y también permite a otros desarrolladores hacer sus propias contribuciones.
