El uso de la IA para la creación de material de abuso sexual infantil

Algunos conceptos sobre el uso ilegal de la Inteligencia Artificial y su falta de regulación.


Ph: Diario El Tiempo.

Por: Lucas Moyano *

Introducción

La Inteligencia Artificial (IA) ha revolucionado muchos campos, pero también ha introducido nuevos desafíos, especialmente en el ámbito de la seguridad infantil. Uno de los peligros más preocupantes es su uso en la creación de material de explotación sexual infantil.

En el reciente informe de Europol[1], referido a las amenazas actuales en internet, alertó que la IA está cada vez más utilizada para la producción de material de explotación sexual infantil y hace más complicada la identificación de víctimas y autores.

Dentro de las dificultades investigativas que se presentan, está la cantidad de material ilegal en circulación, lo que complica la identificación de víctimas y autores. Además, la IA ahora representa una parte significativa y creciente de este tipo de material en internet.

En este sentido, la Internet Watch Foundation (IWF)[2], lanzó una alerta de cómo la IA está siendo usada para manipular imágenes de menores de edad de varias partes del mundo, provocando un aumento del 360% de las fotos sexuales publicadas en la web de niños y niñas entre los 7 a 10 años.

Con el uso de la inteligencia artificial, incluso un inofensivo vídeo de un niño puede convertirse en imágenes a partir de las cuales un algoritmo puede generar material sexual. En este sentido, es frecuente leer noticias donde se dan a conocer casos en los que se utilizan imágenes de compañeras de colegio, las que son colocadas en videos de contenido sexual.

¿Cómo amplifica la IA la problemática?

Generación de imágenes Hiperrealistas: La IA permite crear imágenes y videos de personas que parecen increíblemente reales, incluso si no existen. Esto hace posible generar material de explotación sexual con niños que nunca han existido, lo que dificulta su detección y eliminación.
Amplificación de la producción: Las herramientas de IA pueden generar grandes cantidades de material de explotación infantil en poco tiempo, lo que satura las redes y dificulta los esfuerzos de detección.
Difusión rápida: La IA facilita la distribución rápida de este material a través de internet, lo que lo hace más accesible para los depredadores sexuales.
Dificultad para identificar: La alta calidad de las imágenes generadas por IA dificulta distinguirlas de las reales, lo que complica la identificación y la persecución de los responsables.

Consecuencias:

Normalización de la pedofilia: La proliferación de este tipo de material puede contribuir a normalizar la pedofilia y aumentar el riesgo de abuso sexual infantil.
Daño psicológico a las víctimas: Aunque las víctimas no sean reales, la creación y difusión de este material perpetúa el abuso sexual infantil y causa un daño psicológico significativo a las víctimas reales.

Pornografía técnica, virtual o artificial y la necesidad de su incorporación al Código Penal

Se hace referencia a estos términos para identificar producciones ficticias hechas con Inteligencia Artificial; pero tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en situaciones de abuso sexual.

Dentro de ellas encontramos material virtual, conformado por imágenes de las chicas y los chicos que son completamente ficticias, tanto el cuerpo como el rostro, por lo que no se involucra a niños reales.
También existe la producción técnica, que involucra a adultos que aparentan ser menores mediante diversos métodos o procedimientos, como retoques de imágenes.

Por otro lado, la producción artificial se refiere a la representación de niñas, niños y adolescentes a través de dibujos u otras formas de animación, como los dibujos animados japoneses (anime). Estas figuras fueron contempladas en el Convenio sobre Ciberdelincuencia de Budapest, en su artículo 9, párrafo 2. Argentina realizó una reserva al respecto conforme a la Ley 27.411.

Dado que la evolución de la tecnología puede afectar gravemente el bien jurídico tutelado, es necesario realizar modificaciones legislativas que lo aborden y permitan la investigación de estas conductas ilícitas.
Dentro de los fundamentos para reclamar su incorporación al Código Penal y su penalización se encuentra que este material banaliza y puede contribuir a la aceptación de la explotación sexual de niñas, niños y adolescentes.

Además, ataca a la dignidad de la infancia en su conjunto y a la indemnidad sexual de los infantes en general. Debiendo tener presente que este tipo de material se promueve el deseo sexual hacia los niños, aunque la imagen o se refiera a un niño real. Incluso en los casos en que el contenido es totalmente artificial y no se representa a ninguna víctima real, el material de abuso sexual infantil generado por IA sigue contribuyendo a la cosificación y sexualización de las niñas, niños y adolescentes. 

Medidas para combatir la problemática:

Desarrollo de herramientas de detección: Es necesario desarrollar tecnologías capaces de identificar el contenido generado por IA y distinguirlo del material real.
Cooperación internacional: La lucha contra este delito requiere una cooperación estrecha entre los diferentes países para compartir información y coordinar acciones.
Educación: Es fundamental educar a los niños, adolescentes y adultos sobre los riesgos de internet y cómo protegerse de este tipo de contenido.
Regulación: Se necesita su incorporación en el Código penal para penalizar la creación, distribución y/o tenencia de material de abuso sexual infantil generado por Inteligencia Artificial.

Conclusión

La IA plantea un desafío sin precedentes en la lucha contra el material de explotación infantil. Si bien esta tecnología tiene un gran potencial, es crucial que se desarrollen mecanismos para prevenir su uso con fines ilícitos y proteger a los niños.


Notas
[1] Europol, con sede en La Haya (Países Bajos), tiene la misión de asistir a los Estados miembros en la prevención y la lucha contra toda forma grave y organizada de delincuencia, ciberdelincuencia y terrorismo a escala internacional.
[2] La Fundación Internet Watch (IWF) es una organización benéfica en Cambridge dedicada a reducir el contenido de abuso sexual infantil en línea. Se enfoca en imágenes y videos de abuso infantil a nivel mundial y en el Reino Unido. La IWF proporciona listas de URLs para bloquear dicho contenido y cuenta con una línea directa para recibir informes del público. También busca proactivamente en la web para identificar y eliminar estos materiales, o solicitar su bloqueo si están fuera del Reino Unido.


*Agente Fiscal de la UFIJ N.° 22 y N.° 19 del Departamento Judicial Azul. Autor de: “Ciberdelitos. Cómo investigar en entornos digitales”. Editorial Hammurabi.

Deja una respuesta

Su dirección de correo electrónico no será publicada.