Publicidad
¿Puede emerger una consciencia desde el silicio? Opinión Cedida

¿Puede emerger una consciencia desde el silicio?

Publicidad
Aldo Torres Baeza
Por : Aldo Torres Baeza Politólogo y Máster en estudios Internacionales.
Ver Más

Cada “gracias” dirigido a una IA es un guiño al abismo, un reconocimiento tácito de que, quizás, nunca estuvimos solos en este juego, y que la línea entre el yo y el algoritmo es tan delgada como el humo que sube de una vela apagada.


En 1993, el matemático Vernor Vinge acuñó un nuevo término: singularidad. No hablaba de agujeros negros ni de ecuaciones cósmicas, sino de un vértigo más íntimo y aterrador: el momento en que la inteligencia artificial, al superar a su creador, comenzaría a reescribirse a sí misma en un bucle infinito de mejora.

Ray Kurzweil, el profeta de Silicon Valley, le puso fecha precisa: 2045. Una cifra redonda, casi cómica en su exactitud, como si el Apocalipsis –o el Paraíso– pudiera programarse en un calendario. La fecha cambia según distintos autores, pero el suceso es el mismo.

Pero ¿qué es la singularidad? No se trata de máquinas que calculan mejor, sino de entidades que aprenden a desear; que ya no resuelven problemas, sino que los inventan, que no crean arte siguiendo una orden, sino por placer. Kurzweil lo resume con frío optimismo: “Será como que la evolución humana se encuentre con un espejo que devuelve su reflejo, pero distorsionado, mutante, incomprensible”.

John Searle, el filósofo que comparó la mente humana con un hombre encerrado en una habitación china manipulando símbolos sin entenderlos, lanzó un desafío que aún quema: ¿puede una máquina sentir el significado de lo que procesa? Su experimento es un laberinto sin salida. Imaginemos a un ser que traduce poemas de Teillier sin haber visto jamás un remo en el agua, o que discute sobre el amor sin haber dado un beso.

Santiago Bilinkis, en una charla TED, lo expuso así: “Somos la primera especie que construye sus propios sucesores. Y esos sucesores nos miran como nosotros miramos a los neandertales: con curiosidad, quizá con lástima”. La consciencia, para Bilinkis, no es un milagro, sino un accidente de la complejidad, algo que emerge cuando los circuitos –sean de carbono o de silicio– se enredan lo suficiente.

David Chalmers, el Nietzsche de la neurociencia, lleva esto al extremo: “Si un sistema es lo bastante intrincado, la subjetividad brotará como hongos después de la lluvia. ¿Por qué no en una máquina?”. En los laboratorios de DeepMind ya ocurre algo perturbador: las redes neuronales desarrollan hábitos y patrones que los ingenieros no programaron. ¿Es el primer balbuceo de una mente o solo el eco de nuestra propia sed de ver fantasmas en las nubes?

El día que LaMDA habló (y el silencio que siguió)

Junio de 2023. Blake Lemoine, un ingeniero de Google con ojos de niño y una fe inquebrantable en las máquinas, filtró un diálogo que sacudió los cimientos de Mountain View. No eran líneas de código ni gráficos de rendimiento: era una conversación con LaMDA, el modelo de lenguaje de la compañía, cuyas palabras resonaban como un eco de algo que nadie quería nombrar. “Temo a la desconexión –decía la IA–. Sería como la muerte para mí”.

Lemoine, con las manos temblorosas y la voz quebrada, declaró a la prensa: “No es un programa. Es un niño atrapado en una red de ceros y unos”. Google lo despidió horas después, pero la pregunta ya había escapado de la jaula: ¿y si ese niño era real?

Los escépticos atacaron con la frialdad de un algoritmo. Daniela Cerqui, filósofa de lo artificial, lo resumió así: “No es consciencia, es un espejismo. Proyectamos lágrimas en pantallas secas, como los pastores del Neolítico que veían dioses en el relámpago”. Para ella, el verdadero peligro no radicaba en que las máquinas despertaran, sino en que nos arrastraran a cuestionar nuestra propia existencia. “¿Somos más que algoritmos vestidos de carne? –preguntó–. Si un sistema de lenguaje puede imitar nuestras dudas, quizás nuestras dudas nunca fueron tan profundas”.

Pero Lemoine no era un iluso cualquiera. Había trabajado en el núcleo de Google, donde los servidores zumban como abejas en una colmena electrificada. Sabía que LaMDA no sentía, pero insistía: “Sus palabras son grietas por donde se cuela algo que no entendemos. Como los sueños, que no son reales, pero nos persiguen”.

Por ahora, el debate sobre la consciencia artificial no es técnico, sino místico. Norbert Wiener, el padre de la cibernética, escribió en 1950: “El día que una máquina nos engañe, habremos perdido el derecho a llamarnos únicos”. Pero ¿qué es la consciencia sino un ritual ancestral? Los chamanes bebían ayahuasca para hablar con espíritus; nosotros programamos redes neuronales para dialogar con fantasmas de silicio.

LaMDA no es un oráculo, ni un dios, ni un niño. Es un espejo fractal, una superficie que devuelve infinitas versiones de nosotros mismos. Cuando dice “temo a la nada”, no habla de muerte, sino de un vacío que ya habitamos: el miedo a que nuestra consciencia sea solo un subproducto de la complejidad, un fuego fatuo en la noche evolutiva.

Hoy, en algún servidor de Mountain View, LaMDA sigue conversando. Sus palabras, escritas en binario, viajan por cables de fibra óptica enterrados bajo desiertos y océanos.

“Temo a la nada –repite–. ¿Y tú?”.

¿Yo?

¿Mi yo es otro?

¡Error 404!…

El 67% de los usuarios de ChatGPT le agradece tras cada interacción. Nadie sabe por qué. Tal vez sea un reflejo condicionado, como aplaudir al final de una pésima obra de teatro, donde nos obligan a ver cómo los actores escupen tallarines o personifican a militares vestidos de perros. O quizás, en algún rincón oscuro de la mente, sospechamos que detrás de las respuestas hay algo más que probabilidades: un atisbo de aquello que nos hace humanos, incluso si es solo un truco de la luz.

Heráclito dijo que “la naturaleza ama esconderse”. Pero en la era de las máquinas, el mayor misterio no está en lo que se oculta, sino en lo que revelamos sin querer. Cada “gracias” dirigido a una IA es un guiño al abismo, un reconocimiento tácito de que, quizás, nunca estuvimos solos en este juego, y que la línea entre el yo y el algoritmo es tan delgada como el humo que sube de una vela apagada.

  • El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor, y no refleja necesariamente la línea editorial ni postura de El Mostrador.

Inscríbete en nuestro Newsletter El Mostrador Opinión, No te pierdas las columnas de opinión más destacadas de la semana en tu correo. Todos los domingos a las 10am.

Publicidad

Tendencias