A ello se suman el informe de la Alta Comisionada de la ONU para los Derechos Humanos, la reciente carta de científicos y expertos, entre ellos, Bill Gates, Elon Musk y las cabezas de las principales plataformas tecnológicas, pidiendo una regulación y una moratoria, debido a los “riesgos profundos para la sociedad y la humanidad”, además de las declaraciones en este mismo sentido del creador de OpenAI, responsable de ChatGPT, Sam Altman.
La cadena de decisiones que condujo al desarrollo, fabricación y empleo de la bomba atómica debería ser un referente para evaluar el actual curso de desarrollo de la Inteligencia Artificial (IA). El paralelismo resulta inevitable para sacar lecciones, si es que como comunidad internacional y sistema multilateral todavía somos capaces de aprender y rectificar. No sabemos con certeza si el tiempo transcurrido desde el horror de los bombardeos de Hiroshima y Nagasaki –se cumplen ahora 78 años– ha servido para una mayor conciencia acerca de los límites que no deben ser sobrepasados en el uso y aplicación de los resultados de la investigación científica y tecnológica.
Desde esa fecha fatídica, las armas nucleares no se han vuelto a usar ni en el peor momento de la Guerra Fría, porque lo que está claro es que su empleo conduciría en lo inmediato a una masiva destrucción y, en el mediano plazo, a la extinción de la humanidad, pero seguimos viviendo en un equilibrio del terror, esta es una amenaza existencial cierta. Según la Federation of American Scientists hay 12.500 ojivas o cabezas nucleares en manos de nueve países, empezando por Rusia y Estados Unidos, que acaparan casi el 90% del total, y el resto está entre Francia, Reino Unido, Israel, India, Pakistán, China y Corea del Norte. Una guerra nuclear entrañaría sin ninguna duda el fin de todas las formas de vida, lo que hace completamente incomprensible que se sigan manteniendo arsenales nucleares y haya países que procuren tenerlos.
Sabemos que todo descubrimiento científico tiene dos caras, dos potencialidades: una que aportaría al progreso de la humanidad y otra que la perjudicaría. Es el terreno de las decisiones, de la gobernanza, que corresponde adoptar al poder político. La energía nuclear tiene beneficiosas aplicaciones en generación eléctrica, medicina, agricultura, industria, imagenología, arqueología, ciencia de los materiales, conservación de alimentos, etc., pero la bomba atómica y los desarrollos posteriores de la energía nuclear aplicada a la creación de armas de destrucción masiva ponen en evidencia la difícil relación entre la ciencia y la política. O, dicho de otro modo, entre el avance científico y la gobernanza.
Es el caso también de Internet, de la decodificación del genoma humano, la genética, la biología sintética, la computación cuántica y, en general, de la revolución científico-tecnológica, todo ello de difícil regulación. En materia nuclear existe la Organización Internacional de la Energía Atómica (OIEA), a la que pertenecen 176 Estados miembros de la ONU y, si bien cumple una función muy importante, es un organismo de cooperación e información, que promueve el uso pacífico de la energía atómica, pero sin poder regulatorio. En concreto, no existe a nivel multilateral ningún organismo que regule el desarrollo científico-tecnológico.
En cuanto a la Inteligencia Artificial, que ha evolucionado exponencialmente en los últimos dos años, podemos decir, sin exagerar, que tiene la potencialidad positiva y negativa de la energía nuclear. Puede ser la bomba atómica del siglo XXI si no se adopta una decisión política a nivel multilateral para su regulación, evitando que se nos vaya de las manos, y que líderes entusiastas o irresponsables caigan en la tentación de emplearla para malos fines.
Las ventajas de la IA son indudables y no corresponde frenar su desarrollo, sino orientarlo y regularlo, por su aplicación en seguridad ciudadana, medicina, transporte seguro, servicios personales más baratos, acceso a la información, educación y las oportunidades para las empresas en generación de nuevos y mejores productos y servicios, así como en agricultura, alimentación, servicio al cliente, ahorro de energía, y muchas otras actividades. La Unión Europea, que prepara una ley regulatoria, estima que para el 2035 la productividad laboral podría crecer entre un 11 y un 37 por ciento. Por su parte, la OCDE también considera los aspectos positivos de la IA en la economía y en la gestión pública. Según Goldman Sachs, si bien a nivel mundial unos 300 millones de empleos podrían verse afectados por su introducción, no significaría necesariamente reemplazos masivos, sino un apoyo para potenciar la productividad y crearía en el largo plazo más empleos. Su introducción generalizada podría generar un aumento anual del 7% del PIB en los próximos diez años.
No obstante, hay que considerar que ya son demasiadas las voces de acreditadas personalidades e instituciones de todo el mundo que, de manera plausible, advierten sobre los riesgos de esta nueva herramienta y claman por su gobernanza. En el caso de la energía nuclear, ya sabemos lo que pasó por una decisión política adoptada sin tener claras las consecuencias, que además desató una competencia por desarrollar y almacenar armamento nuclear hasta nuestros días. Con la IA estamos a tiempo de atender a las tempranas advertencias hechas por Stephen Hawking, liderando un grupo de científicos. A ello se suman el informe de la Alta Comisionada de la ONU para los Derechos Humanos, la reciente carta de científicos y expertos, entre ellos, Bill Gates, Elon Musk y las cabezas de las principales plataformas tecnológicas, pidiendo una regulación y una moratoria, debido a los “riesgos profundos para la sociedad y la humanidad”, además de las declaraciones en este mismo sentido del creador de OpenAI, responsable de ChatGPT, Sam Altman, ante el Senado de Estados Unidos, donde un subcomité ha celebrado ya dos audiencias sobre el tema.
Según el Centro para la Seguridad de la Inteligencia Artificial, su desarrollo avanzado “podría invitar a una catástrofe, enraizada en cuatro riesgos clave: uso malicioso, carreras de IA, riesgos organizacionales e IA deshonestas, que interconectados pueden amplificar otros riesgos existenciales, como pandemias diseñadas, guerras nucleares, conflictos entre grandes potencias, totalitarismo y ataques cibernéticos a infraestructura crítica”.
Desde el sector de los centros de estudio y asociaciones de expertos y científicos, el think tank global The Millennium Project considera, según palabras de su director, Jerome Glenn, que es urgente hacerse cargo oportunamente, a escala global, mediante una Agencia de la ONU, de orientar la transición desde la actual Inteligencia Artificial Estrecha (narrow) hacia la Inteligencia Artificial General (AGI), que sin regulación puede conducir en pocos años hacia una Superinteligencia Artificial de difícil control.
En un intento de autorregulación, Google, Microsoft y OpenAI acaban de anunciar la formación del Frontier Model Forum, un nuevo organismo de la industria centrado en garantizar el desarrollo seguro y responsable de los modelos de IA de frontera, procurando buenas prácticas, cooperación con los gobiernos y la sociedad, y apoyar los esfuerzos para enfrentar los riesgos globales como el cambio climático y otros, pero sigue siendo necesario que los gobiernos y los organismos multilaterales generen sus marcos normativos.
Tal vez lo más significativo en el nivel multilateral, como consecuencia de todas estas alertas, es la sesión especial celebrada recientemente por el Consejo de Seguridad de la ONU sobre la Inteligencia Artificial, que reconoce en esta herramienta un riesgo para la seguridad global. En dicha instancia, su secretario general, António Guterres, fue explícito: “La Inteligencia Artificial tiene un enorme potencial para el bien y el mal a gran escala. Sus propios creadores han advertido que se avecinan peligros mucho mayores, potencialmente catastróficos y existenciales”. Guterres acoge en este sentido los llamados de algunos Estados miembros para la creación de una nueva entidad de la ONU “que apoye los esfuerzos colectivos para gobernar esta tecnología extraordinaria”. Un grupo convocado por Guterres presentará unas propuestas a final de año.
En septiembre, tendrá lugar una reunión ministerial en Nueva York para ver los avances en la agenda y la preparación de la Cumbre del Futuro 2024, en la que los jefes de Estado y de Gobierno de los Estados miembros deberán pronunciarse sobre estos temas, y asumir un “pacto por el futuro”. En ese pacto, se debería dotar a la ONU de las capacidades suficientes para hacerse cargo de las amenazas estratégicas y existenciales globales, como la Inteligencia Artificial.