Publicidad
ChatGPT: ¿Un nuevo confidente digital? Digital

ChatGPT: ¿Un nuevo confidente digital?

Publicidad

La inteligencia artificial se ha vuelto una herramienta cotidiana, incluso en terrenos tan delicados como la salud mental. El uso de ChatGPT como “terapeuta virtual” está en aumento, pero los expertos advierten que sus respuestas genéricas no reemplazan una terapia real.


En los últimos meses, herramientas de inteligencia artificial como ChatGPT han tomado protagonismo en distintos ámbitos, desde la educación hasta el entretenimiento. Sin embargo, un uso emergente ha llamado la atención de expertos y es la tendencia de algunas personas a utilizar estas plataformas como sustituto de apoyo psicológico. Este fenómeno plantea interrogantes sobre los beneficios y riesgos de recurrir a la IA para atender necesidades emocionales y de salud mental.​

“Hola, necesito hablar con alguien. No me siento bien”. Esa frase, que antes se le decía a un terapeuta, a un amigo o a un familiar, hoy se le escribe a un chatbot. Lo que comenzó como una aplicación para resolver tareas, mejorar correos o traducir textos, hoy se ha convertido también en un acompañante emocional improvisado. En TikTok abundan los videos de personas que muestran cómo le cuentan sus problemas a la IA, que responde con amabilidad, sin juicio y en segundos. Algunos incluso bromean diciendo que es “mejor que el psicólogo”. Pero, ¿puede una inteligencia artificial reemplazar la experiencia humana de la terapia?

De asistente digital a “escucha activa”

ChatGPT, desarrollado por OpenAI, es un modelo de lenguaje capaz de generar respuestas coherentes y contextuales en conversaciones con usuarios. Su accesibilidad y disponibilidad 24/7 han llevado a que algunos lo consideren un espacio seguro para expresar inquietudes personales. ​La fórmula es simple: se abre la aplicación, se escribe un problema o una emoción, y al instante aparece una respuesta extensa, amable, empática y muchas veces útil. No hay turnos, no hay horarios ni costos. Y para quienes no están listos o no pueden acceder a un terapeuta, la sensación de alivio inmediato puede ser real. Pero como advierten los expertos, esa contención digital tiene límites.

Nadia Ramos Alvarado, directora del Centro de Psicología Aplicada (CEPA) de la Universidad de Talca, explica que el uso de una IA puede ser un apoyo, pero no puede ser considerado como una psicoterapia, ya que esta “tiene características particulares, asociadas al establecimiento de una relación con otra persona y dándose en un entorno de confianza”.

La especialista agregó que, no podemos olvidar que “la inteligencia artificial no tiene capacidad de comprender la complejidad única de cada individuo, por tanto, solo puede entregar recomendaciones genéricas. Tampoco es capaz de percibir las señales no verbales, aspectos que un terapeuta profesional entrenado sí puede hacer”.

En redes sociales, hay relatos de personas que dicen haber superado rupturas amorosas, ataques de pánico o decisiones complejas conversando con la IA. Algunos jóvenes incluso la usan como “coach” para mejorar su autoestima o lidiar con el estrés académico.

Pero Ramos advierte que esto puede ser riesgoso, especialmente en niños, niñas y adolescentes. “Ellos no tienen todavía la capacidad de discriminar hasta dónde puede llegar el uso de esta tecnología”, explica.

Riesgos asociados al uso de IA en salud mental

El uso de chatbots para fines terapéuticos presenta varios riesgos. Entre ellos, la posibilidad de que las respuestas automatizadas refuercen pensamientos erróneos o creencias distorsionadas. Además, existe preocupación por la privacidad y confidencialidad de la información compartida, ya que muchas de estas plataformas recopilan datos sin garantizar su protección adecuada. Ramos subraya que, aunque existen chatbots enfocados en salud mental, carecen de evidencia científica que respalde su efectividad.​

El uso de la IA como apoyo ocasional puede ser útil para organizar ideas, buscar herramientas cognitivas o simplemente sentirse acompañado. Pero no debe sustituir la psicoterapia, especialmente en casos donde existe sufrimiento emocional profundo o problemas de salud mental más complejos.

¿Una herramienta complementaria?

Aun así, no todo es blanco o negro. Como ha ocurrido con otras tecnologías, muchos especialistas reconocen que la IA podría ser un complemento útil para la salud mental si se usa con criterios éticos, acompañamiento profesional y objetivos claros. Desde ejercicios de respiración hasta guías para el manejo del estrés, ya existen iniciativas que buscan integrar lo mejor del mundo digital con la experiencia clínica.

La clave está en entender sus alcances y sus límites. Usar ChatGPT para ordenar una idea o calmarse en una situación puntual puede ser beneficioso. Pero confiar en él como único sostén emocional puede generar más daño que alivio.

Publicidad

Tendencias