Sin consentimiento
"Cualquier chica puede ser expuesta": los desnudos falsos creados por inteligencia artificial se disparan
Estas aplicaciones suponen un nuevo método de violencia digital contra las mujeres contra el que no existe regulación específica
Carles Planas Bou
En junio de 2019, el medio estadounidense Vice denunció la existencia de DeepNude, una "horrible" aplicación que podía desnudar a cualquier mujer. El usuario sólo tenía que colgar una foto de la víctima, pagar 50 dólares y esperar a que la inteligencia artificial (IA) del programa se encargase de quitarle la ropa. Los resultados eran tan creíbles que su uso se disparó, pero el alud de críticas recibidas obligó a sus creadores a cerrar el proyecto a las pocas horas.
Cuatro años después, el problema es mucho mayor. DeepNude desapareció, pero en su lugar han surgido decenas de otras 'apps' similares. Una de esas es la que ha utilizado un grupo de niños de Badajoz para
de colegio, menores de edad. "La imagen es súper realista y, además de viralizarse entre ellos, las pueden haber subido a sitios de internet tipo 'Onlyfans'", ha
a EL PERIÓDICO, del grupo Prensa Ibérica, Miriam Al Adib, madre de una de las víctimas.
Aunque este caso ya ha sido denunciado ante la Policía Nacional, ilustra un nuevo método de violencia digital contra las mujeres cada vez más popular. Un simple vistazo a Google Trends es suficiente para constatar como las búsquedas sobre esas aplicaciones se han disparado durante el último año. "Es un fenómeno que empieza a preocupar muchísimo porque no hay ningún tipo de regulación sobre ello y es muy difícil tanto cuantificar el uso de imágenes que circulan como identificar a quienes lo hacen", explica Eva Cruells, coordinadora de la línea de atención de Fembloc, una iniciativa feminista contra las violencias machistas digitales.
De niñas a famosas
En un principio, este tipo de contenidos manipulados —conocidos como 'deepfakes'— apuntaban principalmente contra mujeres famosas. Los rostros de Gal Gadot, Jennifer Lawrence o Scarlett Johansson eran recortados e incrustados en escenas pornográficas que después eran colgadas en páginas para adultos. En enero de 2021 se habían detectado más de 82.000 de esos vídeos ilícitos, según un recuento de la compañía Sensity. Aunque es muy difícil de contabilizar, las cifras actuales serían muy superiores.
Ese auge se debe a la normalización del mercado de la IA, en
. Es en ese contexto que han florecido multitud de 'apps' que intentan hacerse un hueco a costa de desnudar a chicas sin consentimiento. Su uso es cada vez más sencillo y sus resultados, más creíbles. Esa suma de factores ha facilitado que está tecnología pueda ser usada de forma problemática por todo tipo de públicos.
"El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes".
Los personajes públicos, como Rosalía o la 'influencer' Laura Escanes, siguen estando en la diana de esos ataques. Sin embargo, la facilidad de acceso a esos programas está propagando su impacto a todo tipo de mujeres, también niñas, como muestra el caso de Badajoz. "El mensaje es que cualquier chica puede ser expuesta, es un señalamiento muy claro sobre la sexualidad de muchas adolescentes", añade Cruells.
Ansiedad y baja autoestima
Esta forma de violencia digital de género puede golpear la salud mental de las víctimas. Un 54% de las mujeres que han sufrido acoso en internet han experimentado ataques de pánico, ansiedad o estrés, mientras que un 42% de las jóvenes han mostrado estrés emocional, baja autoestima y pérdida de autoconfianza, según un estudio del Observatorio Nacional de Tecnología y Sociedad (ONTSI) del año pasado. "Así es sentirse violado, así es sentirse explotado", denunció en enero la 'streamer' QTCinderella, víctima de los 'deepfakes'.
Aunque se trate de una simulación, la distribución de contenidos sexuales de esta índole es un delito. Incluso podría tratarse de pornografía infantil si afecta a una menor. Es por eso que desde Fembloc aseguran que la denuncia pública es una buena práctica para exponer el impacto que tiene y para "apelar al sentido común". "Hay que sensibilizar mucho (...) y generar una comunidad que rechace este tipo de agresión", añade Cruells.
Recrear imágenes sexuales falsas es ilegal, pero aun así es muy fácil encontrar este tipo de contenidos en internet. En una búsqueda rápida en Google aparecen todo tipo de enlaces, desde los que recomiendan las mejores 'apps' de IA para crear desnudos a portales donde se cuelgan.
- Aviso urgente de la Policía Nacional a quienes reciben estas llamadas de publicidad
- La DGT advierte del cambio obligatorio en todos los vehículos a partir de este julio: adiós a adelantar como hasta ahora
- ¿Cuándo serían las elecciones en España si las convoca Pedro Sánchez?
- Bruselas amenaza con suspender la nueva versión de TikTok en España y Francia por "tóxica y adictiva
- RTVE suspende la promoción de 'Supernanny' tras recibir varias cartas pidiendo su cancelación
- Meta empieza a vender licencias del sistema operativo de sus gafas de realidad virtual
- Importante aviso de la Policía Nacional sobre el DNI
- LISTA ROBINSON | ¿Cómo apuntarte tú o apuntar a tu hijo menor de edad?