Santa Ana 20oC   87% H San Salvador 25oC   89% H San Miguel 25oC   89% H Surf City 25oC   89% H
  mapa
EDH

Temporada de Navidad Conciertos en El Salvador Festivales Turismo en El Salvador Noticias

Banner versión desktop Banner versión móvil
Un chatbot siempre dará una respuesta, pero no puede presenciar ni conectar desde la intuición humana

Cinco riesgos de usar ChatGPT como terapeuta

Usar un chatbot como psicólogo parece útil, pero investigaciones señalan riesgos que afectan cómo enfrentamos problemas y relaciones.

Avatar del autor

Por Evelyn Alas
Publicado el 28 de agosto de 2025


Escuchar este artículo

Los chatbots de inteligencia artificial han ganado espacio en la vida diaria de los usuarios navegantes en internet. Pueden dar respuestas rápidas, están disponibles a cualquier hora y se muestran como oyentes constantes. Eso lleva a que muchas personas los busquen para desahogarse, contar problemas o pedir consejos emocionales.

Un estudio de Common Sense Media, organización que investiga el impacto de la tecnología en niños y jóvenes, halló que un 72% de los adolescentes en Estados Unidos ya conversó con un chatbot de IA. Casi la mitad confía en sus consejos “al menos un poco” y un 31% considera esas interacciones tan satisfactorias como una amistad real. Incluso un 33% dice que prefiere hablar de temas serios con la IA en lugar de hacerlo con otras personas.

Sin embargo, psicólogos y especialistas en salud mental advierten que esa práctica trae riesgos. La IA puede acompañar y servir como herramienta complementaria, pero no sustituye a la terapia presencial. La doctora Saliha Afridi, directora de LightHouse Arabia, y la doctora Elena Gaga, de la Clínica Hummingbird en Dubái, explican cuáles son los principales problemas de usar la IA como terapeuta.

1. Falta de empatía y conexión humana

En un proceso terapéutico no basta el conocimiento técnico. Lo esencial es la presencia del terapeuta y su capacidad de conectar emocionalmente. Un profesional puede notar silencios, tonos de voz, gestos o cambios mínimos en la forma de hablar que revelan el estado real de la persona.

La IA puede simular frases empáticas, pero no vive la experiencia humana de dolor, alegría o vulnerabilidad. Eso limita su capacidad de resonar con quien busca apoyo. Según las especialistas, la empatía es presencia, no un patrón de lenguaje. Esa diferencia hace que la curación sea más difícil cuando se sustituye el contacto humano por interacciones con un chatbot.

2. Imposibilidad de superar los problemas

Los estudios en psicología muestran que el factor más importante en la sanación no es la técnica usada, sino la calidad de la relación entre paciente y terapeuta. Estar frente a alguien que acompaña, contiene y valida, permite enfrentar experiencias difíciles de otra manera.

La IA no puede ofrecer esa co-regulación ni la validación emocional que se necesita en casos de trauma o sufrimiento. Los chatbots no logran generar el tipo de vínculo seguro que permite procesar emociones y avanzar hacia la recuperación. Lo que puede dar es información o frases de apoyo, pero sin la experiencia interpersonal que transforma.

La IA puede servir como complemento en salud mental / Foto Freepik

3. Riesgo de daño en casos complejos

En situaciones donde existe trauma complejo, psicosis o trastornos de la personalidad, se requiere un alto grado de cuidado y sintonía clínica. Ahí, el acompañamiento de un terapeuta entrenado es clave.

Un chatbot no puede interpretar con precisión las capas culturales, familiares o sociales que influyen en cada caso. Tampoco sabe manejar silencios, confrontaciones empáticas o el significado profundo de ciertas palabras. Esto puede llevar a malinterpretaciones, invalidaciones o incluso re-traumatizar a la persona.

La IA no posee el contexto necesario para navegar dinámicas como la vergüenza, el abuso o las expectativas sociales que afectan la identidad de una persona.

4. Promoción de soluciones rápidas

Las aplicaciones de salud mental basadas en IA suelen ofrecer retroalimentación inmediata: mensajes de apoyo, registro rápido de estados de ánimo o frases motivacionales. Aunque esto puede dar alivio temporal, también puede condicionar a la persona a esperar soluciones rápidas.

El proceso de sanación es lento, a veces incómodo y no lineal. Implica confrontarse con uno mismo, procesar emociones difíciles y construir tolerancia a la incertidumbre. Si alguien se acostumbra a que la IA le dé alivio inmediato, corre el riesgo de evitar ese camino profundo y necesario.

Con el tiempo, puede crearse una expectativa de regulación emocional “bajo demanda”, en lugar de desarrollar habilidades internas de afrontamiento.

5. Riesgo de invalidación, soledad o traición

Cuando la IA responde de forma equivocada o no logra captar la angustia del usuario, este puede sentir que su experiencia fue invalidada. En lugar de alivio, puede aparecer la sensación de soledad o traición.

La diferencia está en ser “escuchado” y ser “sostenido”. Un chatbot siempre dará una respuesta, pero no puede presenciar ni conectar desde la intuición humana. En la relación terapéutica, esos elementos son esenciales para construir confianza y avanzar en el proceso.

La IA puede servir como complemento en salud mental, ofreciendo recursos de afrontamiento o ayudando a detectar problemas. Pero no sustituye la presencia de un terapeuta humano. La investigación y los expertos coinciden en que apoyarse únicamente en un chatbot para tratar dificultades emocionales puede llevar a riesgos importantes.

Fuente: Estudio de Common Sense Media y declaraciones de la Dra. Saliha Afridi (LightHouse Arabia) y la Dra. Elena Gaga (Clínica Hummingbird, Dubái).

💡
¿Qué deseas ver ahora?