En un acontecimiento reciente, el senador estadounidense Michael Bennet ha pedido a las principales empresas tecnológicas, incluidas OpenAI, Microsoft Meta, Twitter y Alphabet, que etiqueten el contenido generado por IA y supervisen la difusión de información engañosa. En una carta dirigida a los ejecutivos de estas empresas, Bennet enfatizó la importancia de la transparencia para los usuarios, instándolos a ser conscientes cuando el contenido es generado por IA. El senador expresó su preocupación por las consecuencias perjudiciales de las imágenes falsas, particularmente cuando tienen una orientación política, destacando los riesgos para el discurso público y la integridad electoral.

El senador estadounidense quiere un seguimiento claro de la industria de la IA

El senador estadounidense Bennet destacó la necesidad de identificadores claros y fácilmente comprensibles en el contenido generado por IA. Si bien reconoció que algunas empresas han tomado medidas para etiquetar dicho contenido, expresó alarma por la dependencia del cumplimiento voluntario. Bennet cree que seguir produciendo y difundiendo contenido generado por IA sin el etiquetado adecuado plantea un riesgo inaceptable para la economía, la confianza y la integridad de los debates públicos.

Para abordar estas preocupaciones, el senador estadounidense ha solicitado a los ejecutivos de las empresas objetivo que proporcionen respuestas sobre los estándares para identificar el contenido generado por IA y su implementación. También enfatizó la necesidad de tener repercusiones claras en los casos de violaciones de las reglas. La fecha límite para las respuestas se fijó para el 31 de julio. Hasta ahora, según se informa, solo Twitter ha respondido con un emoji de caca, mientras que las otras empresas aún no han proporcionado ninguna respuesta formal.

Los legisladores proponen un proyecto de ley para aumentar la transparencia en el espacio de la IA

La cuestión del contenido de IA no etiquetado que genera información errónea también ha llamado la atención de los legisladores europeos. Vera Jourova, vicepresidenta de la Comisión Europea, expresó su convicción de que las empresas que implementan herramientas de IA generativa con potencial para generar desinformación deberían tener etiquetas claras en el contenido para frenar la difusión de información falsa. Esto demuestra un creciente consenso internacional sobre la necesidad de transparencia en el contenido generado por IA.

Aunque actualmente falta una legislación integral sobre IA en Estados Unidos, los legisladores han propuesto recientemente dos proyectos de ley bipartidistas dirigidos a la transparencia y la innovación en el espacio de la IA. Un proyecto de ley, propuesto por el senador demócrata Gary Peters y los senadores republicanos Mike Braun y James Lankford, tiene como objetivo establecer requisitos de transparencia para el uso de la IA por parte del gobierno. El otro proyecto de ley, presentado por el propio senador Bennet, junto con el demócrata Mark Warner y el senador republicano Todd Young, busca establecer una Oficina de Análisis de Competencia Global. Estos esfuerzos legislativos reflejan el creciente reconocimiento de la importancia de regular las tecnologías de IA.

El llamado del senador estadounidense a etiquetar el contenido generado por IA y monitorear la información engañosa refleja la necesidad de transparencia y responsabilidad en la industria tecnológica. Ante la preocupación por las consecuencias perjudiciales de las imágenes falsas y el posible impacto en el discurso público y la integridad electoral, es crucial abordar la cuestión del contenido generado por IA. La falta de una legislación integral sobre IA en Estados Unidos ha impulsado esfuerzos bipartidistas para promover la transparencia y la innovación. A medida que continúa el debate sobre la gobernanza de la IA, las empresas de tecnología deben tomar medidas proactivas para etiquetar el contenido generado por IA y garantizar la confiabilidad de la información compartida en sus plataformas.