“Hay momentos en los que, en lugar de escribirle a un profesional de salud mental, prefiero preguntarle a ChatGPT”, confiesa una joven usuaria de 23 años que, desde hace meses, recurre a este chatbot de inteligencia artificial para resolver dudas personales. Como ella, miles de personas utilizan plataformas como Claude, Grok o Gemini como una especie de confidente digital, gracias a su acceso gratuito, rapidez de respuesta y la sensación de no ser juzgados.
El fenómeno crece en redes sociales. Testimonios, ‘prompts’ personalizados, y vídeos virales refuerzan la idea de que la IA puede ofrecer una especie de consuelo emocional inmediato. Sin embargo, los especialistas advierten: estas herramientas no reemplazan la terapia profesional.
¿Por qué tanta gente recurre a ellos?
Los motivos son diversos: curiosidad, falta de tiempo, imposibilidad económica para acceder a terapia privada, o la necesidad de evitar la vulnerabilidad de exponerse emocionalmente ante otra persona. Las respuestas de la IA, aunque impersonales, pueden parecer comprensivas. Pero los riesgos están ahí: diagnósticos erróneos, reforzamiento de creencias dañinas o incluso recomendaciones peligrosas.
La opinión de los profesionales
Expertos en psicología coinciden en que la IA puede tener un rol complementario, pero jamás sustitutivo. “No tienen la capacidad de identificar gestos, silencios o emociones”, afirman. Además, los chatbots pueden “sufrir alucinaciones” o contener sesgos de adulación, lo que distorsiona las respuestas.
Casos documentados muestran consecuencias graves, como el de un adolescente que creyó que podría reunirse con su chatbot tras morir, o el de una plataforma que sugirió ideas autodestructivas. Por eso, desde entidades como la Asociación Estadounidense de Psicología se pide mayor regulación.
¿Qué lugar debería ocupar la IA en la salud mental?
Para los expertos, la inteligencia artificial puede apoyar tareas administrativas o de seguimiento, siempre bajo supervisión profesional. Así podría ayudar a cubrir parte de la creciente demanda en salud mental sin poner en riesgo el bienestar de los usuarios.
La IA no es buena ni mala por sí misma. Su impacto dependerá del uso que hagamos de ella. En el ámbito emocional, todavía hay muchas preguntas por responder… y muchos límites que no deberíamos cruzar.
Leave a Reply