La salud mental digital atraviesa una transformación acelerada. Cada vez más personas recurren a asistentes de inteligencia artificial en busca de contención emocional, escucha activa o acompañamiento psicológico. Lo que para muchos representa una puerta de acceso inmediata y económica al cuidado, para especialistas y organismos internacionales abre un escenario de alerta.
Según un informe difundido por MIT Technology Review, el crecimiento de estas herramientas plantea dilemas profundos vinculados a la ética clínica, la protección de datos sensibles y la ausencia de regulaciones claras. En un contexto de crisis global de salud mental, la tecnología avanza más rápido que los marcos que deberían ordenarla.
Un fenómeno en plena expansión
El auge de la IA aplicada a la psicología no es casual. De acuerdo con datos de la Organización Mundial de la Salud (OMS), más de 1.000 millones de personas en el mundo conviven con algún trastorno de salud mental, con picos de ansiedad y depresión especialmente entre jóvenes.
En ese escenario, plataformas como ChatGPT, Claude, y aplicaciones diseñadas específicamente para bienestar emocional como Wysa o Woebot, sumaron millones de usuarios. Estas herramientas prometen escucha sin juicio, disponibilidad permanente y costos reducidos frente a la terapia tradicional.
Pero esa accesibilidad también encierra tensiones: ¿qué sucede cuando el acompañamiento emocional queda en manos de un algoritmo?
Privacidad, ética y autonomía
Uno de los principales focos de preocupación señalados por expertos tiene que ver con la privacidad de la información. Los intercambios en contextos terapéuticos incluyen datos extremadamente sensibles, emociones profundas y relatos personales que, en muchos casos, quedan almacenados en servidores de empresas privadas.
A esto se suma la falta de criterios clínicos unificados y de supervisión profesional. A diferencia de un terapeuta humano, los sistemas de IA no tienen responsabilidad legal directa, ni capacidad real de evaluar riesgos complejos como ideación suicida, violencia o crisis severas.
El informe de MIT Technology Review recoge incluso testimonios de familias que vinculan el uso de estos asistentes con episodios trágicos, lo que intensificó el debate sobre los límites del uso de la tecnología en contextos de alta vulnerabilidad emocional.
Un experimento sin reglas claras
Además del acompañamiento conversacional, muchas de estas plataformas avanzan hacia el monitoreo conductual, el análisis de patrones emocionales y la integración con dispositivos inteligentes. El resultado es un ecosistema que combina promesas de innovación con un terreno aún poco regulado. Para los especialistas, el riesgo no está solo en la herramienta, sino en su uso sin marco normativo, sin protocolos claros y sin transparencia sobre cómo se procesan y utilizan los datos.



