Publicidad

Ministra de Ciencia: “Es indispensable una regulación mundial de la Inteligencia Artificial”

Publicidad
Héctor Cossio López
Por : Héctor Cossio López Editor General de El Mostrador
Ver Más

Hace algunos días el gobierno presentó un proyecto de ley para regular éticamente la Inteligencia Artificial. La ministra de Ciencias Aisén Etcheverry destacó en el proyecto los factores de riesgos. Al término de la entrevista preguntamos al ChatGPT4 qué opina de la regulación. Lea lo que nos dice.


Tomando como referente la Ley de IA de la Unión Europea, el proyecto clasifica los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.

¿Cómo funcionará? La ministra de Ciencia, Tecnología, Conocimiento e Innovación, Aisén Etcheverry, explica que “En lugar de exigir que las tecnologías pasen por un proceso de certificación o análisis antes de entrar al mercado, se estableció que cada empresa clasifique sus sistemas de IA en base a un listado de riesgos que se elaborará, donde cada categoría tendrá reglas específicas que cumplir. Las sanciones para quienes no lo hagan serán administrativas, aplicadas por la futura Agencia de Protección de Datos Personales, en un procedimiento regulado por ley y en el que se puede apelar en las cortes de apelaciones”.

Los usos incluidos en la categoría de “riesgo inaceptable” están definidos en el proyecto, a diferencia de “alto riesgo” y “riesgo limitado”, que el proyecto describe en forma genérica pero donde se espera que el Consejo Asesor Técnico de Inteligencia Artificial -formado por representantes del sector privado, público, academia y sociedad civil- proponga usos y aplicaciones existentes. Además, deberá proponer el alcance y modo de cumplimiento de las reglas a las que deberán sujetarse los operadores de ese tipo de sistemas.

¿Qué aplicaciones entran en cada categoría? Se consideran inaceptables, de acuerdo con el proyecto, aquellas que atenten contra la dignidad de las personas -como los utilizados para crear deepfakes de contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes-. También prácticas con alto potencial de manipulación o evaluación de los estados emocionales de una persona, los usos biométricos para el análisis de imágenes de vídeo que empleen identificación en tiempo real (salvo para usos relacionados con la seguridad pública), y los sistemas de IA basados en técnicas de facial scraping.

El proyecto define de “alto riesgo” aquellas aplicaciones de IA que presentan un riesgo significativo de causar perjuicios para la salud, la seguridad, los derechos fundamentales protegidos por la Constitución o el medio ambiente, así como para los derechos de los consumidores. Por ejemplo, un sistema de IA destinado a la contratación o selección de personas, especialmente para analizar y filtrar solicitudes de empleo y evaluar candidatos.

En “riesgo limitado” se incluyen aquellos usos que no implican riesgos significativos de manipulación, engaño o error derivado de la interacción con personas, por ejemplo, un chatbot de un servicio público que responde a consultas dentro de su esfera de competencia.

Por último, un sistema de IA sin riesgo evidente podría ser uno que sugiere películas o canciones, según las preferencias de un usuario, u otro que en ninguna circunstancia pueda causar perjuicios a los derechos fundamentales.

Pregunta al chatbot GPT4

-¿Qué opinas de la regulación de la Inteligencia Artificial?

La regulación de la inteligencia artificial (IA) es un tema realmente importante y complejo. Aquí hay varios aspectos a considerar:

  1. Seguridad y Fiabilidad: Es crucial que los sistemas de IA sean seguros y confiables. Las regulaciones pueden ayudar a asegurar que las IA sean diseñadas con estándares de seguridad, evitando riesgos innecesarios en su implementación.
  2. Privacidad y Datos: La IA a menudo depende de grandes volúmenes de datos para funcionar efectivamente. Las regulaciones pueden proteger la privacidad de los individuos, asegurando que los datos se manejen de manera ética y segura.
  3. Equidad y Transparencia: La IA puede perpetuar o incluso exacerbar las desigualdades si no se gestiona cuidadosamente. Las regulaciones pueden fomentar la transparencia y ayudar a asegurar que los sistemas de IA no sean sesgados de manera injusta contra ciertos grupos.
  4. Responsabilidad: Determinar quién es responsable cuando las cosas van mal es fundamental. Las regulaciones pueden clarificar la responsabilidad legal en el desarrollo y uso de sistemas de IA.
  5. Innovación vs. Control: Finalmente, es un balance delicado entre regular la IA para prevenir daños y permitir suficiente libertad para la innovación. Las regulaciones deben ser diseñadas de manera que no sofocar la innovación sino más bien guiarla hacia desarrollos que sean beneficiosos para la sociedad.

En resumen, la regulación de la IA es fundamental para asegurar que su desarrollo y aplicación sean beneficiosos y justos, evitando al mismo tiempo riesgos potenciales y asegurando que se mantengan altos estándares éticos.

 

Publicidad

Tendencias