El abuso sexual infantil es uno de los crímenes más atroces que pueden cometerse. En la actualidad, está tomando una nueva y alarmante dimensión. Gracias a los avances en inteligencia artificial, la creación de imágenes falsas pero increíblemente realistas de menores en situaciones de abuso sexual ha alcanzado niveles preocupantes, según el último informe de la Fundación Internet Watch (IWF). Este fenómeno está desafiando los sistemas de vigilancia de contenido ilegal a nivel global y ha generado un sentido de urgencia entre las autoridades y organizaciones que luchan por frenar su proliferación.
Según la IWF, en los últimos seis meses se han detectado más imágenes de abuso sexual infantil generadas por IA que en todo el año anterior. Este tipo de contenido ya no se encuentra exclusivamente en la dark web, sino que ha comenzado a aparecer en zonas públicas del internet accesibles a cualquier persona. Las imágenes, creadas por sistemas de IA entrenados con contenido real de abuso, son tan realistas que incluso los expertos tienen dificultades para determinar si son generadas por computadora o involucran a víctimas reales.
Derek Ray-Hill, director ejecutivo interino de la IWF, señaló en The Guardian que este tipo de imágenes ha llegado a un “punto de inflexión”. Y que las herramientas de inteligencia artificial utilizadas están entrenadas para replicar detalles horrendos de situaciones reales. “Los últimos meses muestran que este problema no solo no está desapareciendo, sino que está empeorando”, advirtió Ray-Hill.
El peligro de los ‘deepfakes’ y la manipulación de imágenes reales
Uno de los aspectos más aterradores de este fenómeno es el uso de tecnologías de IA para crear deepfakes. Hablamos de vídeos en los que material pornográfico adulto es alterado digitalmente para que parezca que los protagonistas son niños. Esto incluye la de-aged de celebridades o el uso de herramientas de IA para “desnudar” imágenes de menores con ropa que se encuentran en internet.
Estas imágenes alimentan las fantasías de los depredadores sexuales y confunden a las autoridades. Los analistas de la IWF han advertido que estamos llegando a un punto crítico en el que es cada vez más difícil discernir si una imagen involucra a un menor real o es completamente falsa. A pesar de que todas las imágenes generadas por IA identificadas hasta ahora violan la legislación del Reino Unido, este fenómeno plantea preguntas inquietantes sobre el futuro de la lucha contra el abuso sexual infantil.
¿Cómo se puede detener esta lacra?
La difusión de este tipo de material es alarmantemente extensa. Más de la mitad de las imágenes generadas por IA detectadas por la IWF en los últimos seis meses se han alojado en servidores de Rusia y Estados Unidos, aunque otros países como Japón y los Países Bajos también albergan una cantidad significativa de contenido. Para combatir esta creciente amenaza, la IWF colabora con la industria tecnológica, compartiendo listas de URLs que deben ser bloqueadas y retiradas de la red.
A pesar de estas medidas, la naturaleza accesible de estas imágenes sigue siendo un problema. Ocho de cada diez informes de imágenes ilegales creadas por IA provienen de ciudadanos comunes que las han encontrado en sitios públicos, como foros o galerías de IA. Este dato destaca la importancia de la participación ciudadana en la lucha contra este tipo de contenido y evidencia el desafío de mantener internet seguro para todos sus usuarios. En especial, para los menores.
La popularidad de las redes sociales y la facilidad con la que los menores interactúan en ellas ha llevado a plataformas como Instagram a tomar medidas para contrarrestar la sextorsión. Este fenómeno implica que los criminales engañan a los usuarios, haciéndose pasar por jóvenes mujeres, para que envíen imágenes íntimas que luego utilizan para chantajear.
Instagram ha introducido una nueva función que difumina cualquier imagen que contenga desnudos enviada a través de mensajes directos. Esta característica, activada por defecto en las cuentas de adolescentes, busca proteger a los usuarios de caer en manos de extorsionadores. Además, la red social ocultará las listas de seguidores y seguidos de las víctimas potenciales para que los criminales no puedan rastrear a otras personas en su círculo cercano.
Aunque estas iniciativas son un paso en la dirección correcta, no abordan el núcleo del problema. Hablamos de la capacidad de las IA para generar imágenes altamente realistas de abuso sexual infantil. Las redes sociales y los sitios web deben estar equipados con herramientas más avanzadas para identificar y eliminar este contenido antes de que llegue a los usuarios.