Advertisement

¿Chatbots como psicólogos? El fenómeno de la terapia digital con inteligencia artificial

“Hay momentos en los que, en lugar de escribirle a un profesional de salud mental, prefiero preguntarle a ChatGPT”, confiesa una joven usuaria de 23 años que, desde hace meses, recurre a este chatbot de inteligencia artificial para resolver dudas personales. Como ella, miles de personas utilizan plataformas como Claude, Grok o Gemini como una especie de confidente digital, gracias a su acceso gratuito, rapidez de respuesta y la sensación de no ser juzgados.

El fenómeno crece en redes sociales. Testimonios, ‘prompts’ personalizados, y vídeos virales refuerzan la idea de que la IA puede ofrecer una especie de consuelo emocional inmediato. Sin embargo, los especialistas advierten: estas herramientas no reemplazan la terapia profesional.

¿Por qué tanta gente recurre a ellos?

Los motivos son diversos: curiosidad, falta de tiempo, imposibilidad económica para acceder a terapia privada, o la necesidad de evitar la vulnerabilidad de exponerse emocionalmente ante otra persona. Las respuestas de la IA, aunque impersonales, pueden parecer comprensivas. Pero los riesgos están ahí: diagnósticos erróneos, reforzamiento de creencias dañinas o incluso recomendaciones peligrosas.

La opinión de los profesionales

Expertos en psicología coinciden en que la IA puede tener un rol complementario, pero jamás sustitutivo. “No tienen la capacidad de identificar gestos, silencios o emociones”, afirman. Además, los chatbots pueden “sufrir alucinaciones” o contener sesgos de adulación, lo que distorsiona las respuestas.

Casos documentados muestran consecuencias graves, como el de un adolescente que creyó que podría reunirse con su chatbot tras morir, o el de una plataforma que sugirió ideas autodestructivas. Por eso, desde entidades como la Asociación Estadounidense de Psicología se pide mayor regulación.

¿Qué lugar debería ocupar la IA en la salud mental?

Para los expertos, la inteligencia artificial puede apoyar tareas administrativas o de seguimiento, siempre bajo supervisión profesional. Así podría ayudar a cubrir parte de la creciente demanda en salud mental sin poner en riesgo el bienestar de los usuarios.

La IA no es buena ni mala por sí misma. Su impacto dependerá del uso que hagamos de ella. En el ámbito emocional, todavía hay muchas preguntas por responder… y muchos límites que no deberíamos cruzar.

 

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos. Más información
Privacidad