El desarrollo y uso de las herramientas de inteligencia artificial es veloz, y lamentablemente no solo nos muestra ser capaz de grandes beneficios, sino también de enormes peligros. La Fundación para el Monitoreo de Internet (IWF) ha señalado que en un foro de la dark web más de 3000 imágenes de abuso infantil creadas con inteligencia artificial fueron compartidas durante septiembre de 2023. Unas 1372 pertenecían a niños de entre 7 y 10 años y unas 564 mostraron ser especialmente graves, con escenas de tortura y violaciones.
El nivel de realismo de las imágenes es tal que muchos analistas podrían tener grandes dificultades para distinguirlas de una fotografía.
Nadie está seguro
Algunas de las imágenes se produjeron a partir de fotografías comunes y corrientes de menores a los que la IA modificó para que ser vieran sin ropa. Aún más bizarro, pero tristemente no sorprendente, son los casos en los que sea ha tomado la imagen de una celebridad y aplicado efecto de rejuvenecimiento para retratarlos como niños en escenarios de abuso sexual.
La IWF advierte que el problema será más grave a medida que los sistemas de texto a imagen se hagan más populares.
Entrenamiento
Las imágenes de abuso infantil son ilegales, sean sintéticas o no. Pero es importante notar que para entrenar a la IA se utilizaron imágenes de niños reales. En algunos casos los criminales detrás de la producción de estas imágenes emplearon fotografías de víctimas de abuso sexual. Menores que ya habían sufrido abuso fueron incorporados a nuevas escenas de abuso.
Un problema internacional
La IWF es una organización británica. Una de sus preocupaciones es que las leyes contra el abuso no cubren adecuadamente las producciones de las IA. Las compañía encargadas de desarrollar estos modelos no están incluidas.
Como el lector podrá intuir, la mayoría de los países está en una situación similar o peor.