Revuelo han causado las recientes declaraciones de Blake Lemoine, ingeniero de Google, cuando afirmó que LaMDA, el chatbot de “inteligencia artificial” (IA) de la empresa, era capaz de sentir emociones. LaMDA es el acrónimo de “Language Model for Dialogue Applications”, y es capaz de elaborar lenguaje y sostener conversaciones, a partir de trillones de palabras a las que accede en internet. Lo que sorprendió a Lemoine, y que lo hizo pensar que estaba frente a un niño de 7 u 8 años, fue que este chatbot le habló de derechos y de “personalidad”; incluso Lemoine llegó a afirmar que reconocía “a una persona cuando hablo con ella”. Junto a él, otros expertos en tecnología también creen que los modelos de IA están próximos a lograr ser conscientes; si lo son, serían “seres sintientes” hacia los cuales tenemos obligaciones. Pero esto refleja una confusión respecto de lo que es en realidad “alguien sintiente” (es decir, que tiene la habilidad de experimentar sentimientos) versus un “algo” que tiene la capacidad de mostrarlos (sin que en realidad los experimente). Dicho de otro modo, podemos programar a las máquinas para que contesten nuestras preguntas según un diseño preestablecido, que logren mostrar “empatía” respecto de su interlocutor, que puedan contestar “yo también” si se les dice “te amo”, sin que esto signifique que estamos en una relación afectiva, a menos, claro está, que creamos ser el protagonista de la película “Her”. Para los que aún no la han visto, esta es una película de ciencia ficción en la cual el protagonista encuentra el amor en el sistema operativo de su “Smart phone”, sale a pasear con ella, la lleva de pic-nic y tiene conversaciones que mitigan su soledad.
En este sentido, si bien es comprensible que algunos se hayan sentido emocionados por la mera posibilidad que los robots puedan expresar sentimientos y por su habilidad de simular la conciencia humana, esto distrae la atención respecto de los problemas reales que existen respecto de la IA. Mencionaremos brevemente algunos de los principales problemas éticos del uso de IA.
El primero se refiere al sesgo de los algoritmos que se usan para “enseñar” a las máquinas. Si éstos no son lo suficientemente diversos, pueden errar en hacer diagnósticos clínicos. A modo de ejemplo, si para el uso de herramientas de IA para establecer diagnósticos dermatológicos se usan imágenes obtenidas de sujetos caucásicos, puede que su empleo para diagnosticar personas con similares lesiones, pero con otro color de piel, sea poco confiable. Asimismo, si los algoritmos utilizados para diagnosticar lesiones en la cabeza del fémur se basaron en radiografías de hombres, puede que no tengan la misma eficiencia cuando se utilicen para interpretar imágenes radiográficas de mujeres.
El segundo tema se refiere a la privacidad de los datos y el consentimiento informado de los donantes de los mismos. Un ejemplo es lo ocurrido con la empresa Clearview AI, que fue multada por el uso de caras de personas del Reino Unido, sin su consentimiento. El problema es que no sólo almacenaba rostros, sino que también el comportamiento de las personas, para luego traspasarlas a terceros con fines comerciales.
Otros han manifestado su preocupación porque el uso de máquinas inteligentes, especialmente robots destinados a la atención sanitaria, podrían dejar a muchos agentes sanitarios sin empleo. Esto podría significar un ahorro importante de recursos, pero las máquinas no sustituirán a los humanos, sino que les darán apoyo. Todo aquello que puede ser realizado de manera más eficiente y con menos errores por máquinas, debiese ser bienvenido.
Tal vez lo más interesante en esta discusión valórica, es lo que nos mostró el experimento sobre los vehículos autónomos, donde quedó en evidencia lo difícil que es establecer un código moral universal que pueda ser aplicado a nivel global. Los intentos por establecer códigos éticos amplios para las máquinas inteligentes rara vez reconocen que los humanos experimentan conflictos internos, desacuerdos interpersonales y diferencias culturales en el dominio moral, que difícilmente serán resueltos por una máquina. El objetivo de la ética de las máquinas es crear una IA autónoma que pueda tomar decisiones éticas y actuar con ética, sin la intervención humana. Pero la moralidad tiene que ver con la “autorreflexión” sobre situaciones complejas de la vida, que se manifiestan y se elaboran continuamente en el discurso público y privado, y que no se pueden separar temporalmente como para diseñar algoritmos éticos que eliminen la deliberación humana ante un caso en particular.