Los psicólogos advierten del riesgo de utilizar inteligencia artificial como terapia: «La nuestra es básicamente una profesión de relación humana»

ASTURIAS

Sostienen que, aunque en algunos casos los consejos de las máquinas pueden aliviar a corto plazo, no solucionan los problemas y pueden «empeorar los síntomas cuando los consejos sean inapropiados»
08 abr 2025 . Actualizado a las 05:00 h.La inteligencia artificial está en boca de todos, y aunque nadie duda de lo mucho que puede aportar al trabajo y al desarrollo de la creatividad y el conocimiento, hay personas que le atribuyen unas habilidades que quizá no domine todavía. Un buen ejemplo es la Psicología. Ha salido a la luz un buen número de casos de personas que confiesan haber utilizado alguna de las herramientas de IA como si se tratase de un psicólogo, para que les escuchen o les prescriban terapias. ¿Es razonable actuar así? Los psicólogos lo tienen claro: fiarse de las pautas que puede prescribir una máquina entraña numerosos peligros.
Así lo asegura Bárbara Gogénola, directora de la clínica Gogénola Psicología, con sedes en Oviedo y Gijón, que subraya una limitación fundamental de las máquinas: «su incapacidad para comprender los contextos sociales y culturales que rodean a las personas; al pasar por alto señales sociales cruciales, la experiencia de la terapia con IA puede generar malentendidos, lo que dificulta el progreso del paciente».
Uno de los aspectos que aporta el ser humano y no la máquina es el vínculo terapéutico, que la psicóloga considera «imprescindible». En el mismo sentido, el psicólogo y terapeuta gijonés David Rionda señala que no se trata solo de la capacidad para crear una alianza de trabajo, una confianza mutua sino también «ciertas características personales; que tenga un estilo que encaje perfectamente con el cliente, y que sea una persona con cierto empaque, que transmita cierta trayectoria vital; eso es fundamental, y la inteligencia artificial no puede diseñarlo».

Rionda no descarta la inteligencia artificial para algunas aplicaciones, como por ejemplo exposición a situaciones controladas. Y aunque «la inteligencia artificial supera con mucho la capacidad humana de generar, entrelazar e incluso construir información y significados», hay aspectos en los que no puede estar a la altura: «la nuestra es básicamente una profesión de relación humana».
Se trata no solo de información sino también de emociones y sentimientos que surgen y se comparten en la relación terapéutica. Rionda subraya que la inteligencia artificial tiene capacidad para generar emociones, sensaciones, pero de una forma mecánica: «no hay un verdadero intercambio ni una construcción generativa emocional o motivacional».
Gogénola compara el uso de ChatGPT con los libros de autoayuda, que «se usan para aliviar y comprender en general lo que nos pasa, la sintomatología». Estos libros proporcionan «información escrita en un contexto muy general que te sirve para comprender, pero los seres humanos somos únicos y nuestro contexto nos diferencia aún más a unos de otros».
Con la IA pasa algo parecido, la información general está ahí, «te la brinda igual que puedes acercarte a la librería de tu barrio y hacerte con el último ejemplar del libro de autoayuda más vendido, pero la intervención específica de tu caso, individual, el vínculo terapéutico, la empatía y tu contexto concreto multifactorial solamente lo puede brindar un profesional de la salud mental, en este caso los psicólogos».
La psicóloga resalta aquí el papel del Colegio Oficial de Psicólogos del Principado de Asturias, que ofrece, en su web institucional, un buscador de profesionales para que las personas que necesiten ayuda elijan al psicólogo más adecuado, cuya competencia estará verificada por el organismo.
Lo importante es, entonces, que el factor humano y el bagaje profesional de los psicólogos no se pueden sustituir. Gogénola advierte que recurrir a la inteligencia artificial cuando tienes problemas de salud mental podría «empeorar los síntomas cuando los consejos que ésta dé sean inapropiados». Por su parte, Rionda cree que «todo lo que venga como innovación puede utilizarse como técnica o herramienta dentro de un proceso de intervención, pero no como una sustitución real: es la persona la que determina si lo que uno hace o deja de hacer es útil o no», subraya Rionda.
La directora de la clínica cita un metaanálisis publicado en 2023 en Nature que revisó resultados de 15 investigaciones diferentes realizadas con IA. Sus autores sobre la dificultad de analizar una oferta tan heterogénea y en continua mutación, pero concluyeron que, en general, «este tipo de herramientas mitigan el malestar psicológico puntual sin mejorar significativamente el bienestar de los usuarios; es decir, alivian a corto plazo pero no sientan bases sólidas para una mente más sana».
Por otra parte, el uso de la inteligencia artificial puede obedecer, también, a un problema de fondo: la desigualdad en el acceso a las terapias profesionales. Rionda señala, por ejemplo, que los clínicos de la sanidad pública están muy bien preparados y tienen muchos recursos, pero dan consulta a los pacientes «20 minutos cada tres o cuatro meses en un contexto sanitario». Sin embargo, un psicólogo privado los atiende cada 15 días, con más tiempo y en unas condiciones más favorables. Esto significa que quienes tienen menos recursos están en desventaja frente a quienes se pueden permitir pagar un terapeuta privado.
Gogénola insta a «presionar a nivel social para que el acceso a la psicoterapia ofrecida por profesionales acreditados sea una realidad para todos y no solamente para un porcentaje de la población que se los pueda pagar, ya que estaríamos poniendo clases al bienestar y a la salud y eso es inadmisible». A su juicio, «el auge de este tipo de bots tiene que ver con lo inaccesible de la salud mental para el ciudadano de a pie».