La Internet Watch Foundation (IWF), una organización con sede en el Reino Unido que trabaja para eliminar contenidos de abuso sexual infantil en línea, ha hecho sonar la alarma por el aumento de imágenes de IA en Internet que muestran abuso sexual infantil.
Imágenes de abuso sexual infantil captadas por IA inundan Internet
La IWF dijo que los criminales ahora están explotando herramientas de tecnología de inteligencia artificial para crear nuevas imágenes de abuso sexual infantil utilizando los rostros y cuerpos de niños que anteriormente estuvieron involucrados en abusos en la vida real. Y dados los avances en inteligencia artificial, estas imágenes parecen realistas y casi difíciles de distinguir, dijo la IWF.
Según la organización, en un solo mes se compartieron alrededor de 11.108 imágenes de IA con contenido sexual infantil en un foro de abuso infantil de la dark web. Se confirmó que hasta 2.978 de estas imágenes violaban la ley británica contra el abuso sexual infantil, mientras que otras 2.562 eran tan realistas que debieron ser tratadas como imágenes de abuso reales.
Nuestras peores pesadillas se han hecho realidad. A principios de este año, advertimos que las imágenes de IA podrían volverse indistinguibles de las imágenes reales de niños víctimas de abuso sexual, y que podríamos empezar a ver estas imágenes proliferar en cantidades mucho mayores. Ya hemos superado ese punto —declaró la directora ejecutiva de IWF, Susie Hargreaves—.
La IWF también señaló nuevas y horrendas formas en que los delincuentes explotan las herramientas tecnológicas de IA con fines dañinos. Afirmó que utilizan estas herramientas para sexualizar imágenes de niños vestidos y también para rejuvenecer imágenes de celebridades para retratarlas en escenas de abuso sexual.
La necesidad de una respuesta regulatoria rápida
Si bien es innegable que la tecnología de IA está diseñada para fines benéficos, sigue existiendo una fuerte necesidad de controlar su uso indebido por parte de delincuentes. Los casos destacados por la IWF subrayan la necesidad de que los reguladores de todo el mundo apliquen conjuntamente medidas para prevenir el uso de la IA con fines perjudiciales.
“La colaboración internacional es vital. Es un problema urgente que requiere acción inmediata. Si no controlamos esta amenaza, este material podría saturar internet”, declaró Hargreaves.
No solo los reguladores, sino también las empresas de IA, tienen un papel importante que desempeñar en la prevención del uso ilícito de herramientas de generación de imágenes de IA, como el bloqueo de solicitudes excesivas. Cabe destacar que algunos generadores de imágenes de IA, como Midjourney, ya bloquean solicitudes con ciertas palabras clave como "pornografía", "sexo", etc.

