Imagina que tu rostro hubiera sido añadido de manera digital a un video porno sin tu consentimiento y compartido en internet. Así le ocurrió a Kate Isaacs.
Una noche, mientras revisaba Twitter, Kate Isaacs se encontró un inquietante video entre sus notificaciones.
«Me invadió el pánico», cuenta la británica, quien habla por primera vez de forma pública sobre lo que le pasó.
«Alguien agarró mi cara, se la puso a un video pornográfico, e hicieron que pareciera que era yo».
Kate estaba siendo víctima de un deepfake. Alguien había utilizado inteligencia artificial para manipular un video y colocar su rostro de forma digital sobre el de otra persona; en este caso, una actriz porno.
Para el video falso habían utilizado imágenes de una entrevista televisiva de Kate, quien hace campaña contra la pornografía no consentida, y la habían etiquetado al compartirlo en Twitter. Parecía mostrarla teniendo relaciones sexuales.
«Se me cayó el alma a los pies. No podía pensar con claridad», dice. «Recuerdo haber pensado que el video llegaría a todas partes. Fue horroroso».
Durante un tiempo fueron los famosos y políticos de alto perfil las víctimas más comunes de estos deepfake. Los videos no siempre eran pornográficos, algunos fueron creados con el objetivo de hacer reír.
Pero eso ha cambiado con los años: de acuerdo a la empresa de ciberseguridad Deeptrace, el 96% de todos estos videos son pornografía no consentida.
Al igual que la «pornovenganza», la pornografía deepfake se considera abuso sexual basado en imágenes, un término paraguas que abarca la toma, la creación y/o el intercambio de imágenes íntimas sin consentimiento.
En Escocia, por ejemplo, ya es delito mostrar o compartir imágenes y videos que presentan a alguien en una situación íntima sin su consentimiento.
Pero en otras partes de Reino Unido solo lo es si se prueba que el objetivo era generarle angustia a la víctima, una laguna por la cual los perpetradores con frecuencia no enfrentan consecuencias legales.
El gobierno británico lleva tiempo trabajando en un proyecto de ley de seguridad en internet, que ha sido sometido a revisiones sin fin y repetidamente archivado.
De aprobarse, daría al ente regulador, Ofcom, la potestad para emprender acciones contra cualquier página web a la que se considere que permite causar daño a los usuarios británicos, sin importar en qué país tengan la sede.
A principios de mes la secretaria de Cultura, Michelle Donelan, dijo que ella y su equipo están «trabajando a toda máquina» para que el proyecto de ley salga adelante.
Kate, quien tiene 30 años, fundó la campaña #NotYourPorn en 2019.
Su activismo contribuyó a que al año siguiente Pornhub eliminase de su página web todos los videos subidos por usuarios no verificados: la mayor parte de su contenido.
Así que Kate asumió que quien fuera que estuviera detrás de su video falso era alguien molesto con su campaña. Al fin y al cabo, ella les había «quitado su porno».
Pero no tenía ni idea de quién había sido, ni quién había podido ver el video.
Y si bien ella podía ver que le habían puesto su rostro a una actriz porno,el video era tan convincente que no tenía claro que otros pudieran darse cuenta del engaño.
«Era una violación. Habían usado mi identidad de una manera que yo no había consentido», dice.
Bajo el video, la gente comenzó a dejar comentarios abusivos, diciendo que la iban a seguir hasta casa, que la violarían, que grabarían el ataque y que lo publicarían en internet.
«Empiezas a pensar en tu familia», relata, conteniendo el llanto. «¿Cómo se sentirían si vieran el contenido?».
La amenaza se intensificó cuando alguien publicó su dirección de casa y la de su trabajo bajo el video, una práctica conocida como doxing.
«Me volví totalmente paranoica. ¿Quién conoce mi dirección? El que hizo esto, ¿es alguien a quien conozco?», cuenta.
«Recuerdo haber pensado: ‘Estoy realmente en problemas. No es solo gente hablando en internet, hay un peligro real».
Por su experiencia apoyando a otras personas que habían pasado por lo mismo, sabía perfectamente qué debe hacer una víctima de esta práctica. Pero en aquel momento se quedó paralizada.
«No seguí ninguno de los consejos que yo misma suelo dar», reconoce. «Por una parte estaba Kate, la activista, que era muy fuerte y no se mostraba vulnerable, y por otra yo, Kate, quien estaba realmente asustada».
Una colega denunció el video, los comentarios malintencionados y el doxing a Twitter, y fueron eliminados de la plataforma.
Pero una vez que se ha compartido un deepfake en internet, es difícil sacarlo completamente de circulación.
«Solo quería que el video desapareciera de internet», dice Kate. «Pero no había nada que pudiera hacer al respecto».
Existe un mercado para los deepfakes en ciertos foros online. Es gente que pide que se hagan estos videos de sus esposas, vecinas, compañeras de trabajo e incluso, y por muy increíble que parezca, de sus madres, hijas y primas.
Los creadores de contenido responden con instrucciones paso a paso, desde qué material original necesitarán hasta consejos sobre qué ángulos de grabación funcionan mejor, e informan de lo que costará su trabajo.
Gorkem, un creador de contenido deepfake con sede en el sureste de Inglaterra, habló con la BBC bajo la condición de anonimato.
Empezó a crear este tipo de videos de celebridades para sí mismo. Dice que permiten a cualquiera «hacer realidad sus fantasías en formas que antes no eran posibles».
Después siguió creando deepfakes de mujeres que le atraían, incluso de compañeras de trabajo a las que apenas conocía.
«Una estaba casada, otra tenía una relación», cuenta.
«Me sentí raro al ir a trabajar tras haber creado videos falsos de estas mujeres, pero logré controlar mis nervios. Podía actuar como si nada hubiera pasado. Nadie sospechaba nada».
Al darse cuenta de que podía ganar dinero con lo que él llama su «pasatiempo», Gorkem empezó a aceptar encargos de clientes.
Una buena parte del material original la recopila de las cuentas de redes sociales de las mujeres en cuestión. Dice que hace poco hizo un deepfake usando una conversación de Zoom grabada.
«Una buena cantidad de video, mirando directamente a cámara, es un buen material. El algoritmo puede extrapolar los datos y hacer una buena reconstrucción del rostro sobre el video destino».
Reconoce que las falsificaciones pueden afectar psicológicamente a «algunas mujeres», pero se muestra indiferente ante el potencial impacto de haberlas cosificado.
«Pueden simplemente decir: ‘No soy yo, es falso’. Deberían poder reconocerlo y seguir con su día», explica.
«Desde el punto de vista moral, no creo que haya nada que me detenga», sigue. «Si voy a ganar dinero con un encargo, lo haré, es obvio».
El estándar de estos videos puede variar enormemente, y depende tanto de la experiencia de quien los hace como de la sofisticación de la tecnología utilizada.
Pero el hombre detrás del mayor sitio web de pornografía deepfake admite que ya no es fácil estar seguro de si lo que estás viendo son imágenes manipuladas o no.
Su página web atrae hasta 13 millones de usuarios al mes y puede llegar a tener hasta 20.000 videos. Tiene su sede en Estados Unidos y raramente habla con los medios, pero accedió a conversar con la BBC de forma anónima.
Colgar deepfakes de mujeres «comunes» es una línea roja que no está dispuesto a cruzar, dice, pero tener en su plataforma videos de famosas, influencers de las redes sociales y políticas es, en su opinión, justificable.
«Están acostumbradas a la negatividad en los medios, su contenido está disponible para la gran audiencia. Son distintas a las ciudadanas normales», dice.
«Tal como yo lo veo, pueden lidiar con ello de una manera diferente: pueden simplemente ignorarlo. Realmente no siento que el consentimiento sea necesario. Es una fantasía, no es real».
¿Cree que lo que hace está mal? Parte de él está en «negación sobre el impacto que puede tener en las mujeres», reconoce, y revela que su mujer no sabe a qué se dedica.
«No se lo he dicho a mi esposa. Tengo miedo de cómo le pueda afectar».
Hasta hace relativamente poco tiempo, el software para crear deepfakes no era de fácil acceso y la gente promedio no tenía las habilidades para utilizarlo.
Pero ahora, cualquier persona mayor de 12 años puede descargar legalmente docenas de aplicaciones y hacer deepfakes convincentes con apenas unos clics.
Para Kate es preocupante y «realmente aterrador».
«Ya no es algo de la internet oscura, están en las tiendas de apps, en nuestra cara».
También teme que el esperado proyecto de ley sobre seguridad en internet no pueda mantenerse al día con el avance de la tecnología.
Hace tres años, cuando se redactó el primer borrador, la creación de deepfakes era una habilidad profesional para la que se necesitaba capacitación, no se trataba solo de descargar una aplicación.
«Llevamos años en esto y el contenido del proyecto de ley está desactualizado. Le faltan muchas cosas», dice.
Pero Gorkem cree que si se criminaliza la creación de este material falso, las cosas van a cambiar.
«Si me pudieran seguir el rastro en internet, probablemente lo dejaría y me buscaría otro pasatiempo», reconoce.
Haber sido víctima de un deepfake y de doxing ha afectado la salud de Kate y su capacidad de confiar en la gente.
Cree que aquellos que están detrás de los ataques no solo querían intimidarla y humillarla, sino también silenciarla.
De hecho, durante un tiempo dejó de hacer campaña y se cuestionó si podía seguir denunciando la misoginia.
Pero ahora está aún más entusiasmada. Se dio cuenta de que es un tema que le importa demasiado como para hacerse a un lado. «No les voy a dejar ganar».
Los deepfakes pueden ser usados para controlar a las mujeres, y se debería alentar a las empresas tecnológicas, incluidas aquellas que crean las apps que posibilitan el intercambio digital de rostros, a implementar medidas de seguridad, añade.
«Cualquier aplicación debería ser capaz de detectar contenido sexual», prosigue.
«Si las empresas no han invertido dinero, recursos y tiempo en asegurarse de que su aplicación no está siendo usada para crear contenido sexualmente abusivo, entonces están siendo deliberadamente irresponsables. Son culpables».
Se cree que ni Gorkem ni el hombre detrás de la página web más grande de videos deepfake estuvieron detrás del deepfake de Kate Isaacs.