Emma Watson en un vídeo porno, las fotos publicadas por el cantante JC Reyes de Rosalía desnuda y las imágenes con contenido sexual de Taylor Swift, que se propagaron en X hace unos días, convirtiéndola en la última afectada. Todas tienen algo en común: han sido víctimas de la creación de imágenes falsas, creadas con Inteligencia Artificial. Una situación que afecta cada vez a más mujeres.
El concepto preciso para definir el montaje de imágenes o vídeos es “Deepfake”. Una tecnología que sustituye las facciones de una persona por las de otras. Se ha utilizado para crear fake news y vídeos satíricos, pero el porno ha sido pionero en el uso de esta herramienta.
La pornografía siempre ha movido grandes sumas de dinero. Ahora hay gente dispuesta a pagar por vídeos protagonizados por sus celebridades favoritas, cumpliendo la fantasía de verlas generando contenido sexual -contenido que ellas no han grabado por voluntad propia y que es resultado de un robo de su identidad-.
Aunque no solo las celebridades son víctimas del deepfake. Todos estamos expuestos. Nuestras imágenes están en internet, hemos grabado vídeos con nuestras voces y somos posibles focos de atención para alguien que nos quiera extorsionar o simplemente dañar.
Las cifras generan tensión, dan terror por su rápido crecimiento y porque están lejos de detenerse. En solo un año los vídeos de porno deepfake aumentaron en un 464%, según el estudio State of deepfakes 2023. Y lo más estremecedor es que el 99% de las víctimas de estos vídeos son mujeres. Además la investigación incluye una encuesta a 1.522 hombres, el 48% dijo haber consumido alguna vez pornografía deepfake y el 74% afirmó no sentir culpa por consumirla.
El problema de estos contenidos es que quienes lo protagonizan no consintieron el uso de su imagen. Cantantes, actrices e influencers son quienes más se han visto afectadas, pero no son las únicas pues este fenómeno se ha convertido en una forma de porno venganza o de extorsión a sus víctimas. Lo cierto es que es una forma de violencia de género y abuso.
La facilidad con que se puede hacer esto impresiona. Con una inversión de cero euros, se puede hacer un vídeo porno de un minuto en solo media hora con Inteligencia Artificial, colocando el rostro de una persona de carne y hueso. El sentimiento de vulnerabilidad aumenta al saber que estos contenidos pueden circular por internet, con tu rostro.
En muchos países no existe legislación que permita denunciar, o borrar estos contenidos, provocando mayor vulnerabilidad a quienes son víctimas. Es por esto que importa discutir sobre estos temas e informar sobre algunas acciones que podemos tomar.
¿Qué puedo hacer si me veo afectada?
En España se considera que la creación de estos contenidos sin consentimiento es una forma más de violencia contra la mujer. Los contenidos falsos de personas reales vulnera su honor y su propia imagen.
Se aconseja a la víctima identificar y guardar todas las pruebas digitales al alcance. También solicitar la retirada urgente de los vídeos o imágenes en el canal prioritario de la Agencia Estatal de Protección de Datos, entidad que puede imponer multas a los responsables. El Instituto Nacional de Ciberseguridad de España (INCIBE) dispone de una línea gratuita de asesoramiento. Sin olvidar presentar la denuncia ante la Policía Nacional o la Guardia Civil.
En caso de que las víctimas sean menores de edad, podría entrar en el delito de pornografía infantil, aún siendo imágenes generadas por ordenador.
Es importante mencionar que no solo quienes generan estos contenidos pueden recibir condenas, también quienes han difundido este tipo de material arriesgan una sanción.
Las fotos modificadas no son algo nuevo, pero la disponibilidad y nivel de realismo de los actuales deepfakes sí. La facilidad para crear estas falsas imágenes nos dejan altamente expuestos. Por esto es importante que las diversas plataformas y redes sociales tomen medidas de resguardo, que las instituciones puedan protegernos y que nosotras contemos con información para reaccionar rápidamente.