La inteligencia artificial puede transformar nuestra sociedad de manera profunda y positiva.
En noviembre de este año, el Centro de Derechos Humanos de la Universidad Diego Portales (UDP) publicó su informe anual sobre la situación de los derechos humanos en Chile. Por primera vez dicho informe incluyó un capítulo dedicado a cómo la utilización de la inteligencia artificial (IA) debe cumplir con estándares de derechos humanos, incluyendo un análisis de los riesgos más evidentes que tiene el desarrollo de esta tecnología, los derechos que se ven amenazados por su implementación y los diseños normativos que han sido establecidos para regularla.
En la actualidad el tratamiento de la inteligencia artificial se ha realizado primariamente mediante estándares éticos que no son vinculantes ni exigibles, sino que descansan en buena medida en el comportamiento del desarrollador.
Este mecanismo se parece mucho a la manera con la que los Estados hicieron frente a la tercerización del trabajo mediante aplicaciones como Rapi o Uber, con consecuencias catastróficas para los trabajadores. Es por eso que –como cualquier tecnología que puede transformar profundamente la sociedad– la IA debe ser regulada sobre la base de obligaciones jurídicamente vinculantes y exigibles ante tribunales, en donde la protección y el respeto de los derechos humanos sea un objetivo principal.
Los riesgos concretos que la utilización desregulada de inteligencia artificial puede generar sobre ciertos derechos humanos son evidentes. La desinformación generada por chatbots puede afectar la seguridad de las personas y ser utilizada para cometer engaños masivos. La manipulación de la información fomenta la polarización y vulnera la capacidad de las sociedades de tomar decisiones informadas.
La discriminación algorítmica es una realidad que puede vulnerar la igualdad ante la ley, y las decisiones automatizadas pueden reproducir desigualdades preexistentes, afectando a grupos marginados en procesos como contrataciones laborales y acceso a créditos.
Lo mismo pasa con la propiedad intelectual de escritores y artistas cuyo trabajo sirve de base de datos para algoritmos de IA generativa (como ChatGPT) sin ver en ello una recompensa económica. Tecnologías como el reconocimiento facial pueden ser utilizadas de formas maliciosas por ciertos Estados en contra de sus enemigos políticos. Los riesgos existen.
Con esto no queremos decir que el desarrollo de esta tecnología debe ser frenado o incluso pausado, como han sugerido algunas personas, sino que su desarrollo debe ser acompañado de una regulación que permita que los beneficios de esta revolución productiva lleguen de manera justa y equitativa y signifique mayor bienestar y no mayor precariedad para la sociedad en su conjunto.
En Chile, el Consejo para la Transparencia ha liderado los esfuerzos por transparentar el uso de la inteligencia artificial en el ámbito estatal, dictando una normativa sobre transparencia algorítmica que obliga a informar sobre los sistemas automatizados utilizados y su impacto en la toma de decisiones.
Sin embargo, estos esfuerzos son insuficientes. Falta mucho por avanzar, especialmente en la tramitación del proyecto de ley sobre inteligencia artificial presentado por el Gobierno durante este año y que utiliza el modelo de la Ley IA de la Unión Europea, que probablemente se transforme en el estándar global en la materia.
La inteligencia artificial puede transformar nuestra sociedad de manera profunda y positiva. Sin embargo, cambios de esta magnitud deben implementarse con respeto irrestricto a los derechos humanos y mediante la adopción de regulaciones, pues, de lo contrario, en lugar de contribuir al progreso, la IA podría agravar desigualdades y vulnerar derechos fundamentales.
Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.