El uso de la IA para crear deepfakes está generando una nueva forma de vulneración, como se evidencia en casos recientes en el Metaverso y específicamente en Chile. Expertos en ciberseguridad advierten sobre las señales para identificar, prevenir y actuar en caso de ser víctima.
La violencia facilitada por la tecnología ha llegado a puntos alarmantes en el Metaverso. A principios de este año, en Horizon Worlds, una adolescente de 16 años fue atacada sexualmente por un grupo de hombres mientras utilizaba audífonos y lentes de realidad virtual. Aunque no sufrió daños físicos, el ataque le causó traumas psicológicos, destacando los peligros de la virtualidad en la actualidad.
Chile no está muy lejos de esta realidad. Recordemos que recientemente estudiantes crearon fotos falsas de compañeras desnudas utilizando inteligencia artificial (IA), generando una gran polémica a nivel nacional. Este incidente refleja una tendencia preocupante: el uso de técnicas de edición de audio y video mediante IA para crear imágenes y videos falsos, más conocidos como deepfakes.
‘’Un deepfake es un tipo de video, imagen, voz o texto manipulado mediante inteligencia artificial para lograr un resultado que parezca realista. Esta tecnología permite reemplazar el rostro de una persona en un video por el de otra de manera convincente. Aunque los primeros deepfakes eran de baja calidad y fáciles de detectar, los avances en los algoritmos han mejorado su realismo, haciendo que hoy en día sea difícil distinguirlos de la realidad’’, explica María Isabel Manjarrez, analista de seguridad de Kaspersky, empresa global de ciberseguridad.
En el reciente caso en Chile la especialista señala que, aunque la investigación aún está en curso y no se conocen los detalles específicos, uno de los métodos más comunes para crear deepfakes es mediante redes generativas antagónicas (GAN). Estas redes consisten en dos sistemas neurales que se entrenan con imágenes reales. Una red genera imágenes mientras la otra las evalúa, aprendiendo mutuamente de los resultados para mejorar con cada ciclo.
Por este motivo, subraya que para identificar una imagen o video creado mediante la IA hay varias señales claras a tener en cuenta. Algunos de los indicativos son ‘’observar si hay inconsistencias en la imagen, como fallas en el doblaje y sombras aleatorias. Incoherencias en los movimientos faciales o corporales, expresiones que parezcan extraños o poco naturales. También es útil verificar si hay desalineaciones en los ojos, la boca u otras partes de la cara. Si el audio o video solicita descargar una aplicación o incluso pagar a un tercero, también es para desconfiar’’.
Cabe destacar que la creación y difusión de deepfakes constituyen una forma de violencia de género, afectando mayoritariamente a mujeres. Según el informe “State of Deepfake 2023”, el 98% de los deepfakes en internet son de carácter pornográfico y el 99% de las personas que aparecen en ellos son mujeres.
Bajo ese contexto, para prevenir la creación de deepfakes la experta aconseja a las mujeres, y a la población en general, mantenerse alerta sobre el contenido que comparten en redes sociales y cuestionar la veracidad de información sospechosa, como solicitudes de fotos. ‘’Es crucial ser conscientes de la información personal que se publica en línea, ya que cualquier contenido subido a Internet puede caer en manos equivocadas’’.
Asimismo, es recomendable revisar y ajustar la configuración de privacidad en redes sociales para controlar quién puede ver las publicaciones y la actividad en línea, reduciendo así la probabilidad de que desconocidos accedan a esta información. ‘’En caso de ser víctima de un deepfake en Chile, se recomienda denunciar el incidente a las autoridades locales, como la Policía de Investigaciones, que cuenta con una Unidad Especializada en Cibercrimen. Además, es importante reportar el contenido alterado a la plataforma donde fue difundido para que sea eliminado de inmediato’’.
Si bien la legislación ya está empezando a abordar las amenazas de los vídeos deepfake, por ejemplo el año pasado en el estado de California se aprobó el proyecto de ley AB-602 que prohíbe el uso de la síntesis de la imagen humana para crear pornografía sin el consentimiento de las personas representadas, es un hecho que la tecnología avanza más rápido que los temas regulatorios. ‘’Los sintetizadores deepfake actuales modelan una cara 2D y posteriormente la distorsiona para que se ajuste a la perspectiva 3D del vídeo. En estos casos, comprobar hacia dónde apunta la nariz es una señal clave’’.
Hoy la IA y la creación de contenido deepfake son cada vez más habituales, representando una creciente amenaza para la integridad de la información digital, pues su uso tiende a ser cada vez más difícil de detectar. ’’Nos enfrentamos a un escenario de posible desinformación en el que vemos una manipulación digital avanzada que compromete la verdad, exige cautela y necesita concientizar sobre este fenómeno. Ya es posible crear videos y audios falsos en internet de celebridades, figuras públicas, líderes de opinión, e inclusive usuarios comunes que pueden ser utilizados para desacreditar a una víctima o incluso extorsionar. Sin embargo, el creciente avance de la IA nos enfrenta también a desafíos de privacidad, éticos y de regulación’’.
‘’En un mundo donde la línea entre la realidad y la ficción digital es cada vez más difusa, debemos consumir los contenidos digitales con responsabilidad, siendo cuidadosos de lo que vemos, leemos y escuchamos, y evitando promover la desinformación compartiendo noticias, videos y audios falsos’’, concluye la especialista en ciberseguridad.