El 29 de marzo, una carta publicada por Elon Musk y más de mil investigadores llamó a pausar el entrenamiento de los sistemas de Inteligencia Artificial (IA) más potentes por tratarse de una “carrera peligrosa” de resultados “impredecibles”. La velocidad de la masificación del uso de herramientas como ChatGPT y Dall-e, ya permiten realizar desde pinturas hasta trabajos universitarios: ¿Qué desafíos legales, éticos y técnicos plantean la IA? La respuesta de especialistas ante un despegue en el que se juegan intereses económicos y geopolíticos globales.
Un poema, un ensayo, una fotografía de Joe Biden, Xi Jinping y Vladimir Putin abrazados y más. La masificación del uso de sistemas de IA avanza a pasos agigantados y cada vez son menos las cosas que no pueden hacer, lo cual tiene a la comunidad científica, principalmente, concentrada en el análisis de los impactos en el corto plazo y los desafíos legales, éticos y técnicos a resolver.
En primer lugar, el despegue es inminente. Para el bioquímico y doctor en Ciencias Mención Neurociencia, Patricio Orio, “es extremadamente difícil detener el avance de la ciencia y la tecnología”, precisó el académico de la Universidad de Valparaíso.
“Estos avances obedecen a una curiosidad humana, algo que no podemos detener”, sostuvo al mismo tiempo que indicó que la tecnología “no es mala ni buena”, y por ello “más que detener el desarrollo” podría llamarse a “limitar” su uso. No obstante, ante tal escenario aseguró que el uso de las IA quedará limitado a quienes sepan sortear las barreras con “sus privilegios”, por lo cual es “un dilema complejo”.
“Respecto a la masificación, yo veo que simplemente está poniendo en evidencia lo que somos: si durante años se nos ha hecho funcionar con un sistema que responde a ciertos incentivos, y que premia ciertos resultados sin importar los medios, es obvio que el uso de cualquier herramienta va a seguir obedeciendo esos incentivos”, subrayó.
La opinión es similar en otros investigadores, como es el caso del director del Laboratorio de Ciencias de Datos de la Facultad de Economía y Negocios de la Universidad Alberto Hurtado (UAH), Víctor Muñoz, quien se mostró “escéptico” respecto de la solicitud de moratoria de Musk y compañía.
“El genio ya salió de la botella: una masificación del acceso a las IAs y un acceso a enormes cantidades de datos para entrenamiento de las IA parece inminente según los planes de las grandes tecnológicas”, aseveró el académico.
Para el profesional los “enormes” intereses económicos y geopolíticos que se juegan junto con “el insuficiente” avance en las medidas de control y mitigación de otros problemas sociales, como el cambio climático, evidencian las dificultades de “lograr acuerdos” ante amenazas globales.
Asimismo, tal como señala el director de la carrera de Ingeniería en Control de Gestión mención Ciencia de Datos, de la misma universidad, Tiago Ferreira, una de las respuestas que ya existen ante la incertidumbre de este despliegue se relaciona con la coordinación necesaria para llevarlo de manera responsable.
“La coordinación global en el desarrollo y uso de la inteligencia artificial es un desafío crítico debido al impacto que puede tener en la economía y la sociedad en general”, indicó el PhD y agregó que por este motivo se requiere “una cooperación internacional para garantizar el uso responsable de las IA y minimizar los riesgos potenciales asociados con ella”.
El 29 de marzo pasado, Elon Musk y el Future of Life Institute compartieron una carta firmada por más de mil investigadores advirtiendo sobre el “profundo riesgo para la humanidad” que significan los sistemas de IA más potentes que GPT-4.
En la misiva, solicitaron la paralización por al menos seis meses de los desarrollos para “analizar e implementar de forma conjunta una serie de protocolos de seguridad para que los diseños más avanzados sean auditados y asegurados por expertos independientes”, fundamentó el pedido.
Así como para la comunidad científica global, los investigadores mencionados compartieron su extrañeza debido a la poca confiabilidad del magnate de Twitter, Elon Musk, quien fue señalado públicamente en numerosas ocasiones por sus diferentes actuaciones dentro y fuera de la red social.
A juicio del académico Víctor Muñoz, es “irónico” que Musk suscriba una carta en la que el empresario se pregunte si se debe dejar que las máquinas “inunden los canales de información” con propaganda y falsedades, pero no hay que perder de vista el “problema principal” que sostiene el documento: el impacto “sin precedentes” de las IA.
“Por otra parte, la carta plantea la pregunta sobre si deberíamos automatizar todos los puestos de trabajo, incluidos los satisfactorios, y hasta ahora se actuaba como si la amenaza de automatización de las IA afectara solo a empleos rutinarios, dando oportunidades para que las personas nos dedicáramos en el futuro a tareas más satisfactorias y creativas”, reflexionó el investigador.
De acuerdo a su planteamiento, ahora cuando las IA alcanzan niveles “impensados” de competencia en las que “se consideraban nuestro espacio protegido de tareas satisfactorias y creativas, tareas tradicionalmente realizadas por las elites de nuestras sociedades”, sospechosamente se elevó la “preocupación por el impacto y control de las IA” en el discurso público.
En está línea, el PhD Tiago Ferreira, sintetizó que el “avance significativo” de áreas como el procesamiento del lenguaje natural, el reconocimiento de imágenes y el análisis de datos, permitió la creación de aplicaciones prácticas como chatbots y vehículos autónomos, junto con otras herramientas que plantean “desafíos legales, éticos y técnicos”.
“Esto incluye el abordaje de la falta de transparencia y responsabilidad en la toma de decisiones algorítmicas, preocupaciones sobre la discriminación algorítmica, la privacidad y seguridad de los datos y la posibilidad de que la IA pueda superar la inteligencia humana y convertirse en una superinteligencia que actúe en contra de los intereses humanos”, señaló el docente de la UAH.
En el marco de la masificación del uso básico de algunas herramientas de las IA, como el caso de ChatGPT (OpenAI), unas se posicionaron sobre las otras lo cual recuerda “lo frecuente” del “fenómeno del ganador”. Según la explicación de Muñoz, este alude al más elegido por sus clientes en “función del desempeño relativo”.
“Así, un servicio que entrega un desempeño levemente superior a su competencia se queda con la mayor parte del mercado”, subrayó el especialista. “Por este efecto, y la enorme inversión y cantidad necesarias para desarrollar una IA competente, es esperable que en un futuro cercano solo las compañías más grandes controlen este negocio”, añadió.
Por otro lado, el académico señaló que es natural que las empresas busquen crear valor para sus accionistas, y no existen dudas en que las mejoras en la productividad de las IA “crearán un inmenso valor económico”, debido en parte a que los usuarios estarán dispuestos a pagar por las IA que les contribuya a mejorar su cotidianidad.
“Cuando las actividades empresariales tienen externalidades negativas, es decir, efectos indeseados relacionados con costos que no asumen directamente las empresas, se requiere regulación gubernamental para que la búsqueda del interés individual no se realice a cuenta del interés general, explicó.
Para el académico, no hay que perder de vista que esta carrera global tiene un trasfondo geopolítico que pone en pugna los intereses de cada gobierno, las empresas y la sociedad en su conjunto.
A mediados de marzo, Microsoft 365 anunció que su IA es “el copiloto” de los usuarios. Por consiguiente, el investigador planteó el problema que tenemos por resolver de manera conjunta: “cómo evitamos que las IA se transformen en el piloto y cuál es la relación que tendremos con ellas”, cerró Víctor Múñoz.