Una noticia, en apariencia, como otra cualquiera. Fue publicada hace un par de días en un periódico. Ocupaba un espacio poco destacado. “Usaron deepfake para hacer nopor con mi cara y no puedo hacer nada”, venía a decir la joven escritora y poeta inglesa Helen Mort.

Y claro, me quede ojiplático, porque no caía en lo que era el “deepfake” al que aludían. Así que, en principio, me quedé con las ganas de saber lo que habían hecho con la cara de la escritora, ya que con el “nopor” ese, que le seguía, me ocurría otro tanto de lo mismo.

Intrigado por el contenido de la noticia decidí informarme. Y vino a resultar que lo del “deepfake” eran unos clips generados por un software de inteligencia artificial, que permite sustituir un determinado rostro - en este caso el de una actriz porno - por el de la citada escritora. Y claro, esas falsas imágenes circularon por las redes, sin que la señora Mort se hubiera enterado. Merced a ser un personaje conocido, hubo mucha gente que vio a Helen Mort haciendo piruetas sexuales, y alguno de sus amigos decidió hacérselo saber.

Si la noticia hubiera explicado con claridad, que alguien había manipulado imágenes porno, haciendo ver, falsamente, que la protagonista era una conocida poeta y escritora, sin duda lo hubiera entendido a la primera. Pero como nos gusta tanto el uso de anglicismos, pues llegan a pasar estas cosas. Así que, o sabes inglés, o te obligas a echar mano del diccionario, si es que quieres enterarte de lo que te están contando.

Aclarado que, en inglés, “deep” tiene el significado de “profundo” y “fake” el de “falsificación”, y que, por otra parte, lo de “nopor” es, ni más, ni menos, la palabra “porno”, escrita en sentido inverso, pues resultó descifrado el misterio.

El caso es que de nada le sirvió a la escritora denunciar el hecho a la policía inglesa, ya que fue informada de que no podían ayudarle, al no existir leyes, en aquel país, que castiguen ese tipo de actuaciones.

Casos de esta naturaleza se están prodigando en muchos países. De hecho, la conocida actriz de Hollywood, Scarlett Johansson, es otro de los personajes que se ha visto sometida a este tipo de manipulaciones.

Habrá quien venga a decir que eso entra dentro de la libertad de expresión o algo por el estilo. Y se quedará tan ancho. Pero la utilización, por parte de cualquier cantamañanas, de la imagen de terceros, en aras a dañarla o desprestigiarla, a simple vista, no parece otra cosa que un ataque al derecho a la intimidad, y a la propia imagen.

De siempre han existido trucos, y manipulaciones de imágenes. La industria del cine tiene mucho que decir sobre ello. No hace tanto, en 2019, rodaron la parte IX de la saga “Star Wars” utilizando la cara de Carrie Fisher (Fallecida en 2016) para interpretar, de nuevo, a la princesa Layla, usando ese procedimiento. Pero una cosa es el cine, y otra muy distinta la vida cotidiana. Porque, en el primer caso ya sabemos que se trata de una ficción, y en el segundo vaya usted a saber. También el “deepfake” se está usando en la tele, como puede verse en el programa de Wyoming, en el que Iglesias, Ayuso y Abascal, ya han sido protagonistas obligados, sirviéndoles como referencia el cuerpo del presentador.

Parece ser que el software para hace “deepfake” puede descargarse de internet, sin coste alguno, y que su uso no resulta complicado, lo que hace que su proliferación será cosa de poco tiempo. Es lo que tiene la tecnología que, con el uso de algoritmos, alguien pergeña un programa que, sin necesidad de ser manejado por expertos, resulta muy difícil discernir si las imágenes que estamos viendo, son reales o han sido manipuladas.

Llegará un momento, no tardando, que ese alto porcentaje de perfección llegue a alcanzar el cien por cien. Entonces, al no ser posible demostrar que se trata de una “deepfake” siempre quedará la sombra de la duda. De manera que, deben apresurarse los estados a sacar leyes que protejan la dignidad de las personas y castiguen a quienes sean capaces de hacer ver que cualquier ciudadano ha llegado a participar en un delito o en una orgía.