“Esta es la cara del dolor”. Así arranca la creadora de contenidos QTCinderella un vídeo en el que denuncia haber sido víctima de la difusión de una secuencia pornográfica hiperrealista creada con inteligencia artificial. Las imágenes a las que se refiere son falsas, el daño causado no. La popular figura de internet, de 29 años, se suma a una larga lista de personas afectadas por este tipo de creaciones, conocidas como deepfakes. Las aplicaciones de inteligencia artificial hacen que cada vez sean más fáciles de producir y más difícil de identificar su falsedad, mientras su regulación y control va por detrás del desarrollo de estas tecnologías. El número de estos contenidos en internet se dobla cada seis meses y acapara más de 134 millones de visualizaciones. Más del 90% de los casos es pornografía sin consentimiento. Una investigación de la Universidad Northwestern y de Brookings Institution (ambas de EE UU) alerta de su peligro potencial para la seguridad. Otros estudios advierten del riesgo de interferencia y manipulación en procesos políticos democráticos.
Sonia Velázquez, estudiante universitaria de Sevilla, sintió curiosidad por cómo funcionan los vídeos deepfakes y le pidió a su novio, estudiante de diseño gráfico, que le mostrara una prueba y se prestó a que lo hiciera con su imagen. “Empezó como un juego, pero no lo es. Me vi vulnerable. Sabía que no era yo, pero imaginé a todos mis amigos compartiendo ese vídeo, bromeando y sabe Dios qué más. Me sentí ensuciada y, aunque lo borramos de inmediato, no paro de pensar lo fácil que puede ser y el daño que puede causar”, relata.
“Verte desnuda en contra de tu voluntad y difundida en internet es como sentirse violada. No debería ser parte de mi trabajo tener que pagar dinero para que eliminen estas cosas, ser acosada. Me agota la constante explotación y cosificación de las mujeres”, afirma QTCinderella tras la difusión del vídeo deepfake del que ha sido víctima. Antes que ella, la artista británica Helen Mort sufrió la misma agresión con fotos que cogieron de sus redes sociales. “Te hace sentir impotente, como si te castigaran por ser una mujer con voz pública”, afirma. “Cualquier persona de cualquier ámbito de la vida puede ser el objetivo de esto y parece que a la gente no le importa”, lamenta otra víctima de los vídeos hiperrealistas que pide no ser identificada para evitar búsquedas en las redes, aunque cree haber conseguido borrar todo rastro.
Los bulos son tan antiguos como la humanidad. Las fotografías falseadas tampoco son recientes, pero se generalizaron a finales del pasado siglo con fáciles y populares herramientas de edición de imágenes estáticas. La manipulación de vídeos es más novedosa. La primera denuncia pública es de finales de 2017 contra un usuario de Reddit que la utilizó para desnudar a famosas. Desde entonces, no ha parado de crecer y ha pasado a la creación de audios hiperrealistas.
“Las tecnologías deepfake presentan desafíos éticos significativos. Se están desarrollando rápidamente y se están volviendo más baratas y accesibles día a día. La capacidad de producir archivos de vídeo o audio de aspecto y sonido realistas de personas que hacen o dicen cosas que no hicieron o dijeron trae consigo oportunidades sin precedentes para el engaño. La política, la ciudadanía, las instituciones y las empresas ya no pueden ignorar la construcción de un conjunto de reglas estrictas para limitarlas”, resume Lorenzo Dami, profesor de la Universidad de Florencia y autor de una investigación publicada en Research Gate.
Pornografía no consentida
Los vídeos hiperrealistas falsos afectan principalmente a las mujeres. Según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet, entre el 90% y el 95% de ellos son pornografía sin consentimiento y nueve de cada 10 de estos se refieren a mujeres. “Este es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.
El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una forma más de agresión machista.
La normativa va muy por detrás de los avances tecnológicos que hacen posibles las creaciones deepfake. La regulación de la inteligencia artificial (AI Act) de la Comisión Europea aún es una propuesta y en España está pendiente el desarrollo de la agencia estatal para la supervisión de la inteligencia artificial. “La tecnología, una vez desarrollada, no hay quien la pare. La podemos regular, atemperar, pero llegamos tarde”, advierte Felipe Gómez-Pallete, presidente de Calidad y Cultura Democráticas.
Algunas empresas se han adelantado para evitar ser parte de actos delictivos. Dall-e, una de las aplicaciones de creación digital, advierte que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y ha desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. También lo hacen otras populares aplicaciones de inteligencia artificial para creaciones audiovisuales o de reproducción de vídeos. Un grupo de 10 empresas ha firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable. Pero otras muchas saltan a sencillas aplicaciones móviles o campan libremente por la red, incluidas algunas expulsadas de sus servidores originales, como la que se popularizó con el lema “Desnuda a tu amiga”, y se refugian en otras plataformas de código abierto o de mensajería.
El problema es complejo porque en él confluyen la libertad de expresión y creación con la protección de la intimidad y la integridad moral. “El derecho no regula una tecnología, sino lo que se puede hacer con la tecnología”, advierte Borja Adsuara, profesor universitario y experto en derecho digital, privacidad y protección de datos. “Solo cuando una tecnología únicamente pueda tener un uso malo se puede prohibir. Pero el único límite a la libertad de expresión y de información es la ley. No hay que prohibir una tecnología porque puede ser peligrosa. Lo que hay que perseguir son los malos usos”, añade.
La resurrección virtual de Lola Flores
En este sentido, el profesor italiano Lorenzo Dami identifica usos positivos y negativos de esta tecnología. Entre los primeros destaca su utilización para producciones audiovisuales, una mejor interacción entre máquinas y humanos, expresión creativa (incluida la satírica), aplicaciones médicas, cultura y educación. Un ejemplo ha sido la viralizada resurrección virtual de Lola Flores para una campaña de publicidad, que se realizó con consentimiento de sus descendientes.
En el otro lado de la balanza se encuentran las creaciones hiperrealistas para extorsión sexual, injuria, venganza pornográfica, intimidación, acoso, fraude, desacreditación y falseamiento de la realidad, daño reputacional y atentados de índole económica (alterar mercados), judicial (falsear pruebas) o contra la democracia y la seguridad nacional.
Sobre este último aspecto, Venkatramanan Siva Subrahmanian, profesor de ciberseguridad y autor de Deepfakes y conflictos internacionales, advierte: “La facilidad con la que se pueden desarrollar, así como su rápida difusión, apuntan hacia un mundo en el que todos los Estados y actores no estatales tendrán la capacidad de desplegar creaciones audiovisuales hiperrealistas en sus operaciones de seguridad e inteligencia”, advierte.
En este sentido, Adsuara cree que “más peligroso” que la falsa pornografía, pese a su mayoritaria incidencia, es el potencial daño a los sistemas democráticos: “Imagine que a tres días de las elecciones aparece un vídeo de uno de los candidatos diciendo una barbaridad y no hay tiempo para desmentirlo o, aunque se desmienta, es imparable la viralidad. El problema de los deepfakes, como ocurre con los bulos, no es solo que son perfectos para que parezcan verosímiles, sino que la gente se los quiere creer porque coinciden con su sesgo ideológico y los redifunde sin contrastar, porque les gustan y quieren pensar que es verdad”.
Regulación
La regulación actual, según el letrado, se fija en el resultado de las acciones y la intención del delincuente. “Si la escena nunca ha existido porque es falsa, no se está descubriendo un secreto. Habría que tratarlo como un caso de injurias o como delito contra la integridad moral al difundirlo con intención de humillar públicamente a otra persona”, explica.
“La solución podría estar”, añade Adsuara, “en aplicar una figura prevista en los casos de menores y que es la pseudopornografía infantil”. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales, sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.
También se pueden aplicar sistemas tecnológicos de identificación, aunque cada vez es más difícil porque la inteligencia artificial también desarrolla fórmulas de eludirlos.
Otra vía es exigir que cualquier tipo de contenido hiperrealista esté claramente identificado como tal. “Está en la carta de derechos digitales, pero todavía no se ha aprobado el reglamento de inteligencia artificial”, explica el abogado.
En España es habitual este tipo de identificación en los casos de pornografía falseada para evitar problemas legales. “Pero estas mujeres”, advierte Adsuara, “tienen que soportar que su imagen se fusione en un contexto pornográfico y va contra su derecho a la propia imagen: aunque no sea real, sí es realista”.
Pese al evidente daño de estos vídeos, las denuncias en España son escasas frente a las registradas en Estados Unidos, el Reino Unido o Corea del Sur, aunque la proliferación de estos vídeos es proporcionalmente similar. El experto español en derecho digital cree que se le da menos importancia al ser evidente su falsedad y porque la denuncia en ocasiones solo sirve de altavoz para el delincuente, que busca precisamente eso. “Además”, lamenta, “esta sociedad está tan enferma que no lo percibimos como malo y, en vez de defender a la víctima, se la humilla”.
Josep Coll, director de RepScan, una empresa dedicada a eliminar la información perjudicial en internet, también confirma la escasez de denuncias por parte de personajes públicos afectados por vídeos falsos. Sin embargo, sí señala que abordan muchos intentos de extorsión con ellos. Relata el caso de un empresario de quien difundieron un vídeo falso e incluyeron imágenes de un país al que había ido recientemente para sembrar las dudas entre aquellos de su círculo que conocían que el viaje se había producido. “Y de pornovenganza”, comenta. “De esos nos entran casos todos los días”. “En los casos de extorsión, buscan la reacción en caliente, que paguen por su retirada, aunque sepan que es falso”, añade.