
La irrupción de la inteligencia artificial (IA) en el campo de la salud mental ha generado tanto entusiasmo como serias inquietudes éticas. Desde chatbots terapéuticos como Emotion Recognition y yeschat.ai, que ofrecen respuestas inmediatas, hasta plataformas de seguimiento emocional capaces de detectar patrones de ansiedad o depresión, la tecnología avanza con rapidez. Pero surge una gran pregunta: ¿podemos confiar en una máquina para acompañar procesos tan íntimos como los emocionales?
En esta entrada, el Mtro. Braulio Loera Mendoza, docente de la Licenciatura en Psicología, habla al respecto.
La promesa y el límite de la IA en la Psicología
La tecnología ha facilitado un acceso sin precedentes a recursos de salud mental. Hoy en día, aplicaciones móviles ayudan a las personas a meditar, registrar su estado de ánimo o recibir recordatorios para practicar técnicas de respiración.
Estos usos representan un ejemplo terapéutico correcto, ya que no sustituyen al psicólogo, sino que acompañan el proceso clínico. Por ejemplo, un paciente en tratamiento de ansiedad puede utilizar una app para registrar episodios de estrés y luego compartir esos datos con su terapeuta, mejorando la calidad de las sesiones.
El riesgo aparece cuando la IA pretende suplir la relación terapéutica. Las emociones humanas están moldeadas por experiencias, cultura y vínculos personales, dimensiones que un algoritmo no logra abarcar todavía. Como advierten Rubin et al. (2024), “la empatía, la compasión y la intuición son características inherentemente humanas que no se pueden programar en un algoritmo”, como ocurre en entornos terapéuticos en línea.
De ahí la importancia de concebir estas herramientas como apoyo y no como sustitutos. La American Psychological Association (2025) enfatiza que “si bien la IA puede ser una herramienta poderosa para el apoyo en la salud mental, no debe considerarse un sustituto del tratamiento psicológico profesional”.
Ética, privacidad y la delgada línea del control
Más allá de su eficacia terapéutica, la IA plantea dilemas sobre privacidad y regulación. Al interactuar con estas plataformas, los usuarios comparten información sensible, lo que abre la pregunta: ¿quién tiene acceso a esos datos y cómo se protegen? Iwaya et al. (2022) señalan que la privacidad de los datos de salud mental es un derecho fundamental que debe ser protegido.
Una violación de la privacidad de los datos de una aplicación puede provocar estrés financiero, social, físico o mental. Dado que los usuarios de aplicaciones de salud mental suelen enfrentarse a problemas psicológicos como la depresión, la ansiedad y el estrés, el impacto perjudicial de una violación de la privacidad de los datos de una aplicación puede tener un impacto negativo más significativo en los usuarios. Iwaya et al. (2022).
El desafío es que, mientras un psicólogo se rige por un código ético y regulaciones profesionales, un chatbot no tiene un colegiado que lo supervise. Actualmente, la responsabilidad recae en las empresas desarrolladoras, lo que deja a los usuarios en situación vulnerable. La American Psychological Association (2024) declara que el potencial uso de la IA para promover la salud y el bienestar “solo se materializará mediante la inclusión de la psicología en la investigación, el desarrollo, la implementación y el análisis del impacto de estas herramientas.”
Mirando hacia el futuro: colaboración, no sustitución
La World Health Organization mediante la Global Strategy on Digital Health 2020-2025 incluye el enfoque ético y de equidad en el uso de tecnologías (como la IA) en salud. Esto significa que el camino no está en elegir entre el psicólogo o la tecnología, sino en diseñar una colaboración responsable.
Ejemplos positivos ya existen: programas que ayudan a los pacientes a practicar ejercicios cognitivo-conductuales entre sesiones o asistentes virtuales que recuerdan actividades para fortalecer la higiene del sueño. En este sentido, la IA puede actuar como un “entrenador digital” que potencia lo trabajado en terapia, sin pretender ocupar el lugar de la confianza y conexión humana. El reto, entonces, no es frenar la innovación, sino acompañarla con ética, regulación y conciencia profesional.
La salud mental merece herramientas de apoyo modernas, pero siempre con el recordatorio de que la humanidad, la empatía y la autenticidad siguen siendo insustituibles en el acto terapéutico.
¿Usas apps para cuidar tu salud mental? Hazlo con conciencia.
Si eres alumno, docente o parte de nuestra comunidad, recuerda que tu bienestar emocional es importante.
Consulta siempre a un profesional antes de utilizar plataformas digitales para temas relacionados con salud mental.
📩 ¿Necesitas ayuda? Escríbenos: apoyoemocional@ciw.edu.mx
En Incarnate Word, lo más importante son las personas.
Referencias
American Psychological Association. (2025). Ethical Guidance for AI in the Professional
Practice of Healt Service Psychology. https://www.apa.org/topics/artificial-intelligence-machine-learning/ethical-guidance-ai-professional-practice
American Psychological Association. (2024). Artificial Intelligence and the Field of
Psychology. https://www.apa.org/about/policy/statement-artificial-intelligence
Rubin, M., Arnon H., Huppert, J. y Perry, A. (2024). Considering the Rol of Human
Empathy in AI-Driven Therapy. The Official Journal of the Society of Digital Psychiatry.
DOI: https://doi.org/10.2196/56529
World Health Organization. (2021). Global Strategy on Digital Health 2020-2025.
https://iris.who.int/bitstream/handle/10665/344251/9789240027572

