A pesar de que existen estos derechos, la IA impone nuevos desafíos. Así, algunos expertos a nivel mundial estiman que no estamos suficientemente protegidos por la legislación actual.
Recientemente hemos visto proliferar en internet aplicaciones y contenidos que recrean imágenes y voces de personas utilizando la inteligencia artificial (IA). Estos alzan nuevas alertas sobre la suficiencia de la normativa para proteger los derechos al honor, intimidad, propia imagen y voz de las personas contenidas en esos materiales audiovisuales. Además, la rápida expansión de los deepfakes amenaza con profundizar los problemas de desinformación y con generar otras situaciones indeseadas, tales como intimidación, fraude, manipulación mediática y electoral, suplantación de identidad y otros daños reputacionales para los cuales parece no haber respuestas claras.
Esta semana fuimos testigos del enojo de Bad Bunny por la recreación de su voz que hizo un joven chileno a través de una canción creada con aprendizaje profundo. Días atrás, de la demanda de Scarlett Johansson por clonar su voz e imagen a través de una app. Casos como estos hacen temer también por el uso inadecuado de la voz e imagen de los artistas, que hoy se ven enfrentados a nuevas amenazas.
Sin embargo, cabe recordar que tanto la imagen como la voz de las personas gozan de protección por el derecho. En varias constituciones se protege de forma explícita (Ecuador, artículo 66) o implícita (Chile, artículo 19 Nº 4) tanto el derecho “a la propia imagen” como el “derecho a la propia voz”. Este último en algunas latitudes incluso ha sido considerado un derecho autónomo. De acuerdo con ellos, las personas deciden, por ejemplo, quién puede representar, grabar, registrar, utilizar o divulgar su imagen o su voz como rasgos que permiten identificarles. Y también protegen a las personas por el uso de su imagen con fines comerciales o publicitarios sin su previo consentimiento.
Del mismo modo, las legislaciones nacionales protegen a los artistas, intérpretes y ejecutantes por sus interpretaciones y ejecuciones a través de los “derechos conexos” (normalmente en las leyes de propiedad intelectual) y ello incluye la posibilidad de oponerse a toda distorsión, mutilación u otra modificación de su interpretación o ejecución, que cause un daño a su honra o reputación.
A pesar de que existen estos derechos, la IA impone nuevos desafíos. Así, algunos expertos a nivel mundial estiman que no estamos suficientemente protegidos por la legislación actual. Por ejemplo, porque los contenidos generados por la IA tienen resultados tan hiperrealistas que es difícil distinguir lo real de lo falso, y, por lo tanto, también probar las infracciones a los derechos. Por eso llaman a una actualización urgente.
¿Qué hacer? Recientemente el Grupo Parlamentario Plurinacional “SUMAR”, en España, propuso la creación de una “Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial”, que busca entre otras cosas: identificar contenidos generados por IA; delimitar infracciones y responsables de la utilización de la IA cuando vulneren las condiciones de la normativa sobre comunicaciones audiovisuales; actualizar la normativa penal para calificar como “injuria” la simulación de imágenes o voces de personas generadas por IA sin autorización y con ánimo de menoscabar el honor, fama, dignidad o la propia estimación de una persona o con fines de publicidad; crear nuevas medidas cautelares para facilitar la retirada urgente de imágenes o audios generados con IA sin autorización; así como crear un nuevo delito electoral, para sancionar la difusión de forma intencionada de imágenes o audios de las personas candidatas que estuviesen alterados o recreados mediante el uso de IA.
Como se ve, si bien contamos con algunas bases, también es cierto que proyectos como el mencionado pueden servir de valioso antecedente en búsqueda de soluciones para los nuevos desafíos que nos plantean las disrupciones generadas por la IA.