“Hoy me siento cansada y triste. ¿Qué hago?” Con preguntas como esta, cada vez más personas acuden a ChatGPT en busca de consuelo. Lo curioso es que lo obtienen. La respuesta llega rápida, cálida y sin reproches: “no te preocupes Katy, hay días así. Sal a tomar sol y verás que te sentirás mejor”. Además, me recomendó hacer ejercicios de respiración, escribir mis ideas y finalizó mencionando que si este cansancio y tristeza aparecen seguido podría tratarse de una depresión. Me impresionó su diagnóstico tras unas pocas preguntas. Pero, ¿qué tal real es este resultado? ¿Puede la inteligencia artificial suplantar a un terapeuta?
¿La IA como psicoterapeuta?
En redes sociales hay muchos testimonios de usuarios que afirman haber utilizado Claude, Grok, Gemini, ChatGPT y otros chatbots de inteligencia artificial (IA) como si fueran un psicólogo. En algunas apps incluso puedes escoger el tono de voz y el personaje que deseas que te responda. El Mtr. Miguel Albuja, especialista en trastornos del Desarrollo Infantil y graduado de la Pontificia Universidad Católica del Ecuador (PUCE) menciona los factores que podrían motivar a las personas el uso de la IA como terapeuta.
“La IA está al alcance de la mano de todos. Es de fácil acceso, en muchos casos gratuita y sus respuestas son casi inmediatas. Puedes hacer preguntas desde cualquier lugar y en tiempo ilimitado. Esto atrae y cautiva a varias personas”, menciona Miguel.
El peligro de humanizar la IA
Si bien los chatbots de inteligencia artificial están disponibles para responder todo tipo de preguntas. ¿Pueden realmente reemplazar a un terapeuta? Para aclarar esta duda, la psicóloga clínica Verónica Egas, docente de la PUCE, explica que es clave diferenciar los tipos de intervenciones en psicología.
“En Psicología existen diferentes tipos de intervenciones. Por un lado, están las acciones preventivas, de promoción y de psicoeducación, que consisten en brindar información general sobre temas de salud mental, relaciones, desarrollo infantil o manejo emocional. En este campo, herramientas como ChatGPT pueden ser útiles ya que sirven para informarte sobre, por ejemplo, los cambios en la adolescencia o las dinámicas de pareja. Sin embargo, no te ayudan a procesar tu historia personal o tu dolor emocional”, aclara.
Por otro lado, Verónica explica que la psicoterapia es un tipo de intervención psicológica, pero de carácter profundo. “La psicoterapia es un proceso de análisis y elaboración psíquica individual, que implica un trabajo interno acompañado por un profesional. Incluye aspectos como el tono de voz, la mirada, los gestos y sobre todo, el vínculo humano. Eso es algo que la inteligencia artificial jamás podrá reemplazar”.
Una herramienta que no confronta
Las herramientas de IA están diseñadas para no contradecir al usuario. Su objetivo es enganchar. Siempre responden con amabilidad y validación. Nunca lleva a las personas a confrontar sus emociones, ideas o pensamientos.
“Es seductor porque te da la razón y no confronta. Pero la psicoterapia no es solo oír lo que quieres escuchar. Es un proceso donde incluso escuchas lo que no quieres oír, porque así se sana y crece”, enfatiza.
Por otra parte, Miguel señala que, actualmente, a muchos jóvenes les cuesta expresar sus malestares frente a otras personas por eso acuden a herramientas de IA.
“Los primeros encuentros con otros, especialmente con personas de su misma edad o más jóvenes, suelen resultar incómodos. A los adolescentes y jóvenes adultos les cuesta establecer un diálogo abierto con el otro. En cambio, con la inteligencia artificial no enfrentan ese desafío: interactúan con una pantalla, lo cual puede resultarles mucho más cómodo”
Ambos explican que el verdadero riesgo surge cuando la IA se convierte en la única fuente de apoyo emocional, sustituyendo a las redes humanas o la terapia.
¿Qué pasa con los problemas graves?
La IA puede entregar “checklists” de diagnósticos con base en síntomas, pero no posee criterio clínico.
“Estamos hablando de salud mental. ¿Qué pasa si una persona con ideas suicidas consulta a Chat GPT? El programa no tiene la capacidad de sostenerla emocionalmente, ni de crear una red de apoyo real. Es gravísimo”, enfatiza Verónica. Recuerda el caso en Bélgica donde un hombre con ideación suicida consultó a un chatbot y terminó quitándose la vida.
Aunque este fenómeno es más frecuente entre jóvenes, también se observa en adultos mayores. “He tenido pacientes preocupados porque sus padres, por soledad, pasan horas conversando con ChatGPT como si fuera un amigo. Aquí dejamos de hablar de información y entramos en el terreno del vínculo humano”.
La necesidad de rehumanizarnos
Verónica concluye con un llamado a distinguir. “Los chatbots, como ChatGPT, son una herramienta valiosa para obtener información rápida. Pero no es psicoterapia, ni un confidente humano. El problema empieza cuando lo humanizamos y pensamos que podemos reemplazar la relación con otro ser humano por un algoritmo”.
En un mundo que exige inmediatez, la psicoterapia sigue siendo un proceso de tiempo, esfuerzo y verdad. Y es que, en definitiva, lo que nos sostiene no es un programa que nos complazca, sino el vínculo humano.
Te puede interesar:
Investigación PUCE analiza los patrones geográficos del suicidio en Ecuador