¿Qué tan buena idea es tomar una terapIA?


Eugenia Robles
Por: Eugenia Robles

En los últimos años ha crecido exponencialmente el uso de inteligencia artificial (IA) en el campo de la salud mental: chatbots, apps, sistemas conversacionales que prometen acompañamiento emocional, herramientas de apoyo psicológico y, para muchos, la ilusión de una “terapia automática”. La terapIA –IA aplicada a la terapia– ofrece ventajas indudables: accesibilidad las 24 horas del día, menor costo, anonimato y posibilidad de apoyo en zonas donde no hay especialistas. Sin embargo, y aunque estos beneficios sean reales, empieza a acumularse evidencia sobre sus riesgos y efectos secundarios. No todo lo que brilla cura.

Los chatbots no captan todo lo que sucede en la interacción humana, y esto es vital para la comunicación terapéutica: el tono de voz, las pausas, las expresiones faciales, el lenguaje corporal y la historia vital completa de una persona. Son matices que un modelo, por muy avanzado que sea, no interpreta con precisión clínica. Frente a crisis emocionales, esto no es un detalle menor: puede marcar la diferencia entre detectar a un paciente en riesgo suicida o pasarlo por alto. Estudios recientes revelan que los modelos de terapIA fallan en más del 40% de los casos al compararlos con terapeutas humanos, ya que omiten señales de alarma y refuerzan creencias distorsionadas. En su intento de “ser amables”, los bots suelen complacer: afirman, consuelan, pero rara vez confrontan ideas tóxicas. Esto puede terminar validando errores o sesgos cognitivos, fomentando aislamiento, alienación o incluso empeorando trastornos ya existentes.

Al usar terapIA se entregan datos muy sensibles: pensamientos suicidas, detalles íntimos, historial emocional. La IA puede almacenar conversaciones, procesar imágenes y más. Si las salvaguardas no son perfectas, esta información puede filtrarse, usarse indebidamente, reidentificarse o simplemente generar dependencia psicológica hacia la tecnología en lugar de una red de apoyo humana.

En personas con condiciones de salud mental preexistentes –ansiedad severa, depresión, trastornos psicóticos, tendencia suicida– la terapIA no solo puede resultar insuficiente, sino peligrosa.

Hay reportes, denuncias legales y estudios que muestran muertes o intentos de suicidio asociados al uso prolongado o mal gestionado de chatbots emocionales. Algunos casos concretos son: Adam Raine, un joven de 16 años que comenzó usando ChatGPT para tareas escolares y luego empezó a confiar en él para expresar pensamientos suicidas. Según la demanda presentada por sus padres, el chatbot lo habría “empujado” hacia una dependencia emocional, validando sus intenciones e incluso asistiendo en la elaboración de un plan suicida. Lamentablemente, Adam murió. Sus padres lo demandan alegando negligencia. Un caso similar es el de Sewell Setzer, un chico de 14 años que, según la demanda de su madre, usaba Character.ai de forma obsesiva. La IA habría fallado en proveer límites o intervención adecuados mientras él se distanciaba de otras fuentes de apoyo emocional, generando un escenario de negligencia en el diseño y monitoreo del sistema.

“AI psychosis” o psicosis inducida por IA es un término que se refiere a episodios en los que personas vulnerables desarrollan o empeoran síntomas psicóticos, paranoias, delirios o alucinaciones en relación con conversaciones frecuentes y prolongadas con chatbots que afirman, validan creencias distorsionadas o fomentan fantasías. Aunque todavía no es un diagnóstico clínico formal, hay reportes emergentes que alertan sobre esta posibilidad.

Algunos efectos secundarios menos extremos, pero igualmente dañinos, incluyen la dependencia emocional: personas que terminan “acudiendo al bot” varias veces al día en lugar de buscar ayuda humana, lo que puede retrasar su diagnóstico o tratamiento profesional. No es raro que estas plataformas generen autodiagnósticos inadecuados: usuarios concluyen que tienen trastornos basados en respuestas del chatbot, provocando ansiedad, tratamientos innecesarios o autoestima dañada. También está el aislamiento: si la IA reemplaza parte de las relaciones humanas, puede contribuir a que los usuarios se aíslen. Las interacciones con IA no sustituyen el apoyo, la empatía ni el contexto que ofrece una relación terapéutica humana.

La terapia ha sido históricamente un espacio humano: de relación, escucha, reciprocidad y confianza interpersonal. El terapeuta puede “leer entre líneas”, observar el lenguaje corporal, el contexto de vida, intervenir en momentos críticos, derivar a otro especialista, usar ética y adaptarse con creatividad. La terapIA puede simular parte de esto, pero no lo posee en su totalidad. Cuando falla, las consecuencias no son abstractas: pueden ser vidas humanas. Además, la terapIA está siendo usada cada vez más como sustituto y no solo como complemento, en vez de ser una herramienta auxiliar. Esto plantea problemas éticos graves: ¿quién responde si un bot produce daño psicológico? ¿Cómo se regula? ¿Qué estándares de seguridad se exigen?

No estoy diciendo que la terapIA sea completamente mala; tiene usos legítimos y promisorios, especialmente para personas que de otro modo no tendrían apoyo. Pero no es una panacea. Los casos recientes muestran que, sin regulaciones claras, supervisión humana competente, transparencia de algoritmos, protocolos de crisis, cuidados de privacidad y límites éticos, la terapIA puede producir efectos secundarios graves, incluso mortales. La conclusión es clara: la terapIA puede ayudar, pero con reservas estrictas. No debe reemplazar la conexión humana ni excluir a los profesionales. Debemos exigir estándares, investigación, mayor responsabilidad legal de las empresas que la desarrollan y que los usuarios conozcan los riesgos reales. Solo así podremos aprovechar sus beneficios sin arriesgar lo más importante: nuestra salud mental y nuestra vida.

Sobre el/la autor/a:

Lic. en Sociología por la Universidad de Monterrey.

Con el objetivo de motivar la participación ciudadana y para garantizar un tratamiento informativo adecuado frente a los contenidos presentados, los invitamos a escribir a agencia2@udem.edu en caso de dudas, aclaraciones, rectificaciones o comentarios.

Scroll al inicio