¿Vas a creer en todo lo que ves?

Algunos conceptos sobre el uso ilegal de la Inteligencia Artificial para la creación de deepfakes y la imperiosa necesidad de su regulación en la ley penal argentina.


Escribe: Lucas Moyano – Fiscal

Podemos definir a un deepfake como una simulación de sonido, imagen o vídeo que induce al receptor a pensar que es verdad cuando, en realidad, se trata de un contenido falso

El “deepfake” utiliza técnicas de Inteligencia Artificial y toma prestado parte de su nombre de la disciplina conocida como “deep learning”, ya que consiste en la aplicación de una serie de algoritmos de aprendizaje para modificar y crear contenido multimedia.

Como resultado, es posible manipular un vídeo para que la cara -e incluso la voz- de una persona puedan ser cambiadas por la de otra. Es decir, se trataría de un contenido falso o “fake”.

De manera general, podemos caracterizar a la Inteligencia Artificial como amoral, pudiendo ser utilizada con distintos fines.

Así, por ejemplo, dentro de los efectos positivos está que en medicina podrían realizarse investigaciones que no requieran pacientes reales. Y en la educación, ayudar a los docentes en la utilización para un video de un discurso histórico creado con el fin de hacer que las lecciones sean más atractivas para los estudiantes.

Puede emplearse también como herramienta para la elaboración de contenido de entretenimiento y marketing, creando personas completamente artificiales.

Pero por otro lado, la IA también puede ser utilizada con fines malintencionados.

¿De qué manera? A partir de fotos o vídeos de una persona para simular acciones o decir mensajes falsos que comprometan su imagen.

Esto podría llevar a imaginar casos de “deepfake” dirigidos, por ejemplo, a personalidades del ámbito político o empresarial, con el fin de menoscabar sus imágenes o sus organizaciones para influir en la opinión pública.

En este sentido, las imágenes y los audios de Inteligencia Artificial ya se han utilizado en propaganda y para engañar a los votantes en todo el mundo.

En otros supuestos la IA puede ser utilizada para ejercer violencia de género en línea, como es el caso donde se crea material pornográfico no consentido, mediante -por ejemplo- la superposición de rostros de mujeres, contra su voluntad, sobre imágenes sexualmente explícitas.

Un informe exhaustivo -“State of deepfake. Home Security Heroes”- en 2023 determinó que la pornografía constituye el 98% de todos los vídeos “deepfake” encontrados en línea. Y que de ellos, el 99% de las víctimas de la pornografía “deepfake” son mujeres, vulnerando de esa manera los derechos a la protección de datos o privacidad y -también- la intimidad, el honor y la propia imagen.

El “deepfake” tiene capacidad para clonar o imitar la voz y la imagen en tiempo real, sirviendo como herramienta de suplantación de identidad.

Así, los estafadores ya han comenzado a usarla para hacerse pasar por familiares y tratar de que las personas les envíen dinero. O podrían hacerse también pasar por un miembro de una organización para obtener información confidencial. E incluso, por un candidato en un proceso de selección, con el fin de infiltrarse de manera fraudulenta en el mismo.

Un aspecto importante de su utilización ilegal, y que en lo particular me genera mucha preocupación, es su empleo por parte de los pedófilos para generar nuevo material de abuso sexual infantil, compartiendo después con otros ese tipo de contenidos.

En ese caso, se trata de producciones ficticias. Hechas con Inteligencia Artificial; pero tan realistas que aparentan ser de niñas, niños o adolescentes desnudos o en situaciones de abuso sexual.

Dentro de ellas encontramos a lo “virtual”, conformado por imágenes de las chicas y los chicos que son completamente ficticias. Tanto el cuerpo como el rostro, por lo que no se involucran a niños reales.

También está la producción “técnica”, compuesta de material que se integra por imágenes en las que aparecen personas presentadas como menores en un contexto sexual. Y en una tercera, conocida como “pseudo”, se utiliza la cara de una niña, niño o adolescente real y se hace un montaje con su cuerpo.

En nuestro país estas prácticas aún no son consideradas un delito, por lo que sería fundamental que se las incorpore cuanto antes como ilícitos a nuestra legislación penal.

El fundamento para el reclamo de su punición es que este material banaliza y puede contribuir a la aceptación de la explotación sexual de niñas, niños y adolescentes. Además, ataca a la dignidad de la infancia en su conjunto y a la indemnidad sexual de los infantes en general.

A lo expuesto debe destacarse, como un factor intensificador de la amenaza que estas aplicaciones representan, la rápida evolución de los modelos algorítmicos en que se basan. Enmarcada en un intento constante por alcanzar un mayor realismo, supone un problema a la hora de desarrollar arquitecturas de detección eficaces, ya que en buena parte sus modelos se orientan a la identificación de atributos que muestran inconsistencia con la realidad (parpadeo y movimiento ocular, flujo sanguíneo, inflexiones de voz, etc.).

Algunas reflexiones

Las amenazas que presentan la evolución tecnológica y su utilización con fines ilegales conlleva la imperiosa necesidad de adaptar el marco legal argentino frente a las herramientas tecnológicas que actualmente se encuentran siendo empleadas para la manipulación de imagen, voz y video sin el respectivo consentimiento, lo cual deriva en la consecuente creación de falsos testimonios visuales y auditivos con fines delictivos o afectan la intimidad y la integridad de las personas.

Dentro de la actualización de los tipos penales debe ampliarse la tipificación del Artículo 128 del Código Penal, para que se incorporen las modalidades “virtuales”, “pseudo” y “técnica” mencionadas como formas de abuso sexual en línea con niñas, niños y adolescentes como víctimas, a los fines de dar una adecuada protección al llamado “bien jurídico tutelado”.

En ese contexto, se deben examinar y responsabilizar a las empresas tecnológicas que alojan estas aplicaciones y a los sitios web. Específicamente, a las que no presentan sistemas efectivos de verificación de edades y tampoco advierten los usos ilícitos de estas herramientas.

En atención a que diversos estudios indican que las mujeres se han convertido en las principales víctimas de estas prácticas, es prioritario armonizar también esas normas penales con perspectiva de género.

Por otro lado, es necesario trabajar en la concientización, prevención y educación social para un uso responsable, ético y crítico de las tecnologías, debiendo ser cada vez más desconfiados en todo lo que nos llega a través de Internet. Y fundamentalmente, tener presentes que no todo lo que vemos es real.

(*) Titular de las fiscalías 22 y 19 del Departamento Judicial Azul. Autor del libro “Ciberdelitos. Cómo investigar en entornos digitales”.

Deja una respuesta

Su dirección de correo electrónico no será publicada.