La científica en informática y lingüística, reconocida por su pionero trabajo en modelar emociones en la voz mediante Inteligencia Artificial, estuvo en Congreso Futuro 2024, abordando las diferentes facetas de la computación afectiva y sus implicaciones éticas.
En 2020 el documental coreano I Met you siguió a Jang Ji-sung, una mujer que mediante Inteligencia Artificial (IA) se “reunió” con su hija, quien había fallecido en 2016 a la edad de siete años, a causa de una enfermedad.
En el proyecto de simulación la niña y su madre conseguían “abrazarse” en un parque, gracias a la realidad virtual, en un escenario que había sido preparado por el equipo de producción de la cinta. El documental abordó los avances tecnológicos de la IA, pero también los dilemas éticos que presentan situaciones como estas. Laurence Devillers, científica en informática y lingüística, estudia este tipo de casos.
Reconocida por su pionero trabajo en modelar emociones en la voz mediante Inteligencia Artificial, estuvo en Congreso Futuro 2024, abordando las diferentes facetas de la computación afectiva y sus implicaciones éticas.
“Estoy trabajando en lo que se llama la computación afectiva, que es básicamente la idea de trabajar en las emociones, tanto para detectar las emociones humanas como para simularlas en una máquina –como, por ejemplo, un agente conversacional– y para sintetizar emociones”, explicó.
En ese sentido, sostuvo que la computación afectiva “es útil, por ejemplo, para trabajar en la depresión y problemas mentales, ya que nos permite seguir al paciente de manera más precisa. Podemos incluso dosificar medicamentos y supervisar el proceso de atención que brindamos a esa persona, si es que no hay muchos médicos disponibles. Con estas herramientas, podríamos tener una recopilación de datos más frecuentes que ayudarían a los psiquiatras a comprender mejor la enfermedad y ajustar mejor las dosis de medicamentos”.
“Prohibir una tecnología no es la solución; debemos regular su uso en situaciones específicas”, puntualizó.
Pero ¿estamos preparados para gestionar situaciones como la de la madre que se “reúne” con su hija? En ese sentido, Devillers dijo que “es importante comprender que la tecnología se basa en conceptos fundamentales que se remontan a 1943, como el gradiente retroactivo, y aunque hemos avanzado mucho, estos conceptos siguen siendo los mismos. La educación en este ámbito es crucial para evitar confusiones entre lo que es máquina y lo que es vida. Cuando se habla de ‘superinteligencia’ en las máquinas debemos ser realistas, estas máquinas no tienen una comprensión física ni serán una inteligencia superhumana. Serán más como una enciclopedia, pero sin verificar la información. Se trata de un conjunto de datos no verificados que se utilizan para construir modelos grandes y que se quieren usar en diversas situaciones”.
Otro de los temas que abordó es la pérdida de cultura, debido a que, en general, la IA funciona principalmente para usuarios angloparlantes.
“Creo que en España, en Chile y en cualquier lugar debemos preservar nuestra cultura, nuestro idioma y construir estas máquinas en nuestra lengua, con responsabilidad. También debemos ser conscientes de la manipulación cultural a través del lenguaje”, sostuvo.
“En cuanto a la producción de lenguaje autónomo, esto podría llevar a la creación de avatares autónomos que difunden información de manera manipulativa, lo que podría ser utilizado por potencias extranjeras para desestabilizar democracias. Es importante trabajar tanto en la innovación como en la ética, entendiendo las consecuencias para los humanos, la sociedad, la democracia y el medio ambiente, dado que estas máquinas consumen mucha energía. Debemos tener en cuenta esta compleja ecuación de múltiples factores y abordarla desde ahora, antes de que las máquinas se vuelvan omnipresentes, como ha sucedido con las redes sociales”, concluyó.
Inscríbete en el Newsletter Cultívate de El Mostrador, súmate a nuestra comunidad para contarte lo más interesante del mundo de la cultura, ciencia y tecnología.