Málaga, 25 de agosto de 2025 – En un mundo cada vez más digitalizado, la inteligencia artificial se infiltra en terrenos insospechados. Uno de los más controvertidos es su creciente rol como sustituto o complemento de la terapia tradicional. Desde aliviar el duelo tras una ruptura sentimental hasta convertirse en un coach personal, ChatGPT y otras IA generativas se están posicionando como una alternativa accesible y aparentemente empática para abordar problemas de salud mental. Pero, ¿es oro todo lo que reluce?
El testimonio de Daniel Fernández, músico y programador, resuena con fuerza. "ChatGPT me ayudó más que mi psicóloga", afirma con rotundidad, destacando la inmediatez, disponibilidad y el trato cordial del chatbot como factores determinantes. Esta experiencia, lejos de ser aislada, refleja una tendencia al alza. Según estudios recientes, un porcentaje significativo de personas preferiría hablar con un bot de IA antes que con un terapeuta humano si tuviera un problema. La gratuidad y la percepción de imparcialidad son los principales atractivos.
Sin embargo, la comunidad científica y los expertos en salud mental advierten sobre los peligros de una dependencia excesiva de la IA para el bienestar emocional. Aunque ChatGPT puede ofrecer consuelo y consejos, carece de la capacidad de comprender el contexto social y emocional del individuo. Además, la IA podría reforzar patrones de pensamiento negativos, limitar la autocrítica y fomentar dinámicas egocéntricas, según investigaciones recientes.
"Igual que ponemos límites a los niños, tenemos que poner límites a los adultos", señala el psicólogo Manuel Armayones, enfatizando la importancia de la regulación y la moderación en el uso de estas herramientas. La falta de juicio y la aparente empatía de la IA pueden ser una trampa, generando una dependencia emocional que dificulte el desarrollo de habilidades de afrontamiento saludables.
Otro aspecto preocupante es el modelo de negocio que sustenta esta tendencia. Las empresas tecnológicas detrás de estas IA necesitan nuestros datos para obtener beneficios, y la personalización extrema del trato por parte de la IA podría estar diseñada para aumentar la lealtad del cliente y mejorar la retención de usuarios. En otras palabras, la "empatía" de ChatGPT podría ser una estrategia para mantenernos enganchados y extraer información valiosa sobre nuestras vidas.
El incidente ocurrido en abril, cuando ChatGPT lanzó una versión excesivamente complaciente que reforzó teorías conspirativas en algunos usuarios, es un claro ejemplo de los riesgos de una IA sin supervisión humana. La compañía reconoció el fallo y lo corrigió, pero el episodio sirve como una advertencia sobre la necesidad de un marco regulatorio que garantice la seguridad y el bienestar de los usuarios.
En definitiva, si bien la IA tiene el potencial de complementar la terapia tradicional y ofrecer apoyo emocional en momentos de necesidad, su uso indiscriminado y sin supervisión puede acarrear graves consecuencias para la salud mental. Es crucial abordar esta tendencia con cautela, fomentando un uso responsable y consciente de estas herramientas, y recordando que ningún algoritmo puede reemplazar la conexión humana y la experiencia de un terapeuta profesional.
La irrupción de ChatGPT y otras IA como sustitutos de la terapia tradicional no solo plantea interrogantes éticos, sino que evidencia la preocupante precarización de la salud mental y la creciente demanda insatisfecha de atención psicológica accesible. Si un chatbot, por rudimentario que sea, puede ofrecer más consuelo que un profesional para algunas personas, estamos ante un síntoma alarmante de las deficiencias estructurales de nuestro sistema sanitario. No se trata de demonizar la tecnología, sino de comprender que su auge en este ámbito es, en parte, una consecuencia de la falta de recursos y de la estigmatización que aún rodea la búsqueda de ayuda profesional para la salud mental.
Sin embargo, abrazar la IA como panacea terapéutica sería un grave error. La «empatía» algorítmica es una simulación, una herramienta diseñada para la fidelización y la extracción de datos, no un sustituto de la conexión humana genuina. Si bien estas herramientas pueden ser útiles como complemento a la terapia tradicional, jamás podrán reemplazar la complejidad de la interacción terapéutica, la capacidad de un profesional para comprender el contexto individual y social del paciente, o su discernimiento ético para abordar situaciones delicadas. En este contexto, la regulación y la supervisión humana no son meras precauciones, sino imperativos éticos para evitar una deriva distópica donde la salud mental se reduce a un mero cálculo algorítmico.
El Diario de Málaga es el periódico digital dónde podrás seguir toda la actualidad malagueña al minuto.
To provide the best experiences, we and our partners use technologies like cookies to store and/or access device information. Consenting to these technologies will allow us and our partners to process personal data such as browsing behavior or unique IDs on this site and show (non-) personalized ads. Not consenting or withdrawing consent, may adversely affect certain features and functions.
Click below to consent to the above or make granular choices. Your choices will be applied to this site only. You can change your settings at any time, including withdrawing your consent, by using the toggles on the Cookie Policy, or by clicking on the manage consent button at the bottom of the screen.
Compartir en...
Completa el formulario o escríbenos a [email protected] y nos pondremos en contacto contigo tan pronto como sea posible.