Si realmente existiera una comprensión profunda del significado e impacto de la IA para el futuro de la humanidad, uno hubiera esperado por parte del Gobierno un proyecto técnicamente mucho más complejo, orientado a una real promoción de la IA en nuestro país.
EL 7 de mayo de este año el Gobierno, finalmente, presentó su proyecto de ley de inteligencia artificial. Este tiene por objeto promover la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (IA) al servicio del ser humano, que sean respetuosos de los principios democráticos, el Estado de derecho y los derechos fundamentales de las personas frente a los efectos nocivos que determinados usos pudieran irrogar.
Entre los antecedentes sobre los cuales se construyó el proyecto, se mencionan la Política Nacional de IA elaborada por el Ministerio de Ciencia, Tecnología, Conocimiento e Innovación (MCTCI), 2021; la Recomendación de la Unesco sobre la ética de la IA, de 2021; la circular sobre uso responsable de herramientas de IA en el sector público, dictada por el Ministerio Secretaria General de la Presidencia y el MCTCI en el mes de diciembre de 2023; y la experiencia comparada, a saber: la Ley de IA de la Unión Europea, la promoción de la autorregulación por parte del Gobierno de los Estados Unidos de América y la agilidad con que China ha actuado para poner en vigor regulaciones sobre algoritmos de recomendación, contenido sintético e IA generativa.
Pero es, sin duda alguna, la Ley de IA de la Unión Europea la fuente de inspiración de la cual el proyecto extrae su enfoque y contenidos, aunque, ciertamente, con un nivel de complejización técnica muy inferior al europeo.
Con todo, el proyecto sigue al pie de la letra el enfoque de riesgos de la Unión Europea que, básicamente, persigue el propósito de promover una IA centrada en el ser humano, es decir, una inteligencia artificial que se ponga al servicio de fortalecer el desarrollo de la humanidad en función del respeto irrestricto a los derechos fundamentales de las personas, lo cual solo es posible en el marco del Estado Democrático Constitucional de Derecho.
Para tales efectos, el proyecto clasifica los sistemas de IA en:
Sistemas de IA de riesgo inaceptable, que agrupan a sistemas de inteligencia artificial incompatibles con el respeto y garantía de los derechos fundamentales de las personas, por lo que su introducción en el mercado o puesta en servicio se encuentra prohibida. Entre estos sistemas, se incluyen sistemas de manipulación subliminal, sistemas que explotan vulnerabilidades de las personas para generar comportamientos dañinos, sistemas de categorización biométrica de personas basados en datos personales sensibles, sistemas de calificación social genérica, sistemas de identificación biométrica remota en espacios de acceso público en tiempo real, sistemas de extracción no selectiva de imágenes faciales, y sistemas de evaluación de los estados emocionales de una persona.
Sistemas de IA de alto riesgo, que agrupan a sistemas de IA autónomos o componentes de seguridad de productos que pueden afectar negativamente la salud y la seguridad de las personas, sus derechos fundamentales o el medio ambiente, así como los derechos de los consumidores, especialmente si fallan o se utilizan de forma impropia. Estos sistemas se permiten, pero podrán operar sujetándose a regulaciones ex-ante y ex-post.
Sistemas de IA de riesgo limitado, que agrupan a sistemas de inteligencia artificial que presentan riesgos no significativos de manipulación, engaño o error, producto de su interacción con personas naturales. Estos sistemas solo se sujetarán a reglas de transparencia hacia el consumidor y/o usuario para que sea informado de forma clara y precisa, y pueda tener consciencia de estar actuando con una máquina.
Y sistemas de IA sin riesgo evidente que, según el proyecto, agruparían a todos los demás sistemas de inteligencia artificial que no entran en las categorías mencionadas en los literales precedentes.
En cuando a la gobernanza, el proyecto crea el Consejo Asesor Técnico de Inteligencia Artificial (CATIA), como una instancia de carácter consultiva y permanente que asesorará al MCTCI. La fiscalización, a su vez, la radica en la futura Agencia Encargada de la Protección de Datos, la cual podrá cursar multas desde 5 mil y hasta por 20 mil UTM. Llama la atención la alta composición de representantes del Estado en el CATIA, lo cual podría ser fuente de conflictos de intereses y le restaría representatividad, diversidad y legitimidad social a la citada instancia consultiva.
En cuanto al apoyo a la innovación, el proyecto solo contempla que los órganos de la administración del Estado proporcionen espacios controlados de prueba y validación (sandbox) de los sistemas innovadores de IA en la esfera de sus competencias y priorizando a las empresas de menor tamaño.
Conviniendo en el debate que una política de sandbox es necesaria, sin embargo, el proyecto pareciera olvidar que primero se necesita que el país comience a producir IA. Mientras no se produzca IA no son, obviamente, necesarios los sandboxes (salvo para pruebas de IA importadas). El proyecto no contiene ninguna política que incentive económicamente la producción de inteligencia artificial en Chile. Y si consideramos que, en la actualidad, el nuestro es un país importador de IA (consúltense los registros del Inapi), no vemos cómo el proyecto realmente podría incentivar o impactar en los niveles de desarrollo de la IA chilena.
En una rápida mirada: ¿es un buen proyecto?
Es una primera aproximación legislativa gubernamental al tema y, por tanto, con ese parámetro debe ser valorado, a la espera de que el proceso legislativo lo mejore. Se saluda, por tanto, el proyecto, y se le reconoce ese esfuerzo al Gobierno. Sin embargo, hubiéramos esperado un proyecto mucho más acabado y con un mayor nivel de complejidad técnica.
Lo mejor, sin duda, el enfoque preventivo de riesgos siguiendo los lineamientos de la Ley de IA de la UE.
Lo contradictorio es que, aun cuando el proyecto señala que su intención es promover el desarrollo de la IA, no contiene ningún incentivo real para tales efectos, cuestión crítica tratándose de esta tecnología. Por otra parte, deja la gobernanza y la fiscalización del sistema como apéndices de otros órganos (como el Consejo Asesor del MCTCI y la futura Agencia de Protección de Datos), no reconociendo la importancia estratégica del desarrollo de la inteligencia artificial para nuestro país, lo cual requería de órganos públicos autónomos descentralizados. A eso hay que agregar ciertas imprecisiones conceptuales y falta de diferenciación de algunas categorías (por ejemplo: sistemas de riesgo limitado y sistemas sin riesgo evidente).
Estas contradicciones hacen que los aspectos punitivos del proyecto pasen a un primer plano (que luzcan más), cuestión que lo desbalancea en función de sus fines (creación, desarrollo, innovación e implementación de la IA en el territorio de la República de Chile). La ausencia de una gobernanza y fiscalización autónoma, a su vez, también sugiere que su desarrollo no es una prioridad estratégica del Gobierno, lo cual es preocupante para el futuro del Estado de Chile.
En efecto, no deja de llamar la atención desde un punto de vista geopolítico la falta de visión y de proyección de nuestro país en el plano de la región. Con mucho respeto lo digo: si realmente existiera una comprensión profunda del significado e impacto de la IA para el futuro de la humanidad, uno hubiera esperado por parte del Gobierno un proyecto técnicamente mucho más complejo, orientado a una real promoción de la IA en nuestro país.
Pero, en fin, veamos cómo evoluciona en el proceso legislativo.