En los últimos meses hemos visto una nueva y creciente demanda en consulta: personas que verbalizan sentirse adictas a ChatGPT. Y en concreto, personas que utilizan la IA con un uso muy específico: como psicólogo personal.
En este artículo no pretendo dirimir una verdad absoluta sobre si utilizar la IA con fines terapéuticos o no. Cuando un psicólogo, un médico… cualquier sanitario en general, se pronuncia sobre si es mejor acudir a él o recurrir a la IA, existe un conflicto de intereses evidente.
Mi objetivo es poner sobre la mesa los potenciales beneficios, así como también los riesgos, desde el punto de vista clínico. Y especialmente, teniendo en cuenta los puntos ciegos que la IA puede no estar teniendo en cuenta cuando se le solicita asumir el rol de “terapeuta”. Vamos al lío 😉
ÍNDICE
¿Por qué cada vez más personas utilizan la IA como sustituto del psicólogo?
Desde la pandemia ha habido un auge nunca visto en cuanto a divulgación sobre salud mental: podcasts, vídeos en YouTube, programas de televisión… nunca se ha hablado tanto de salud mental. Y como todo… eso tiene una cara A, y una cara B: el lado positivo, es que hay mucha más información, y una mayor normalización de atender los problemas de salud mental. El lado negativo, es que también hay mucha des-información. Se han banalizado muchos términos clínicos, y muchas personas sin formación ni experiencia clínica hablan de diagnósticos basándose en lo que han visto en un vídeo de TikTok de 60 segundos.
Esto genera el caldo de cultivo de perfecto para un entorno que le resta complejidad al proceso de emitir un diagnóstico clínico. Si a esto le sumamos, que las personas parecen cada vez más concienciadas de la relevancia de pedir ayuda cuando aparece malestar psicológico, tenemos la combinación perfecta: Necesito pedir ayuda, pero que sea es rápido, fácil y low cost. Y en este punto, es donde aparece la IA como (aparente) salvadora.
Beneficios potenciales de la IA aplicada a la salud mental
No lo vamos a negar: la IA tiene muchos beneficios. Nos puede ahorrar mucho tiempo, recursos y simplificar procesos. Si vamos específicamente al campo de la salud mental, destacaría los siguientes beneficios potenciales:
✔️ 1. Accesibilidad 24/7: seamos honestos: si tienes que elegir entre una persona que te atiende una hora a la semana, o un asistente virtual disponible 24 horas al día… está claro que la persona no puede competir. Además, si necesitas la consulta con urgencia, te ahorras tener que solicitar cita previa; además de ahorrarte el tener que dar explicaciones si no puedes acudir.
✔️ 2. Organización del pensamiento: aunque la IA te pueda facilitar el trabajo, el mero hecho de tener que pensar qué le vas a preguntar, y cómo se lo vas a plantear, te obliga a poner en marcha varios procesos cognitivos que trabajamos mucho en consulta. Necesitarás ordenar tus ideas, identificar qué emociones son las que más te perturban (etiquetado emocional), reflexionar sobre tus propios pensamientos (metacognición), etc.
✔️ 3. “Apoyo emocional”: lo pongo entre comillas porque este beneficio tenemos que cogerlo con pinzas. Si bien es cierto que la IA ofrece respuestas muy bien construidas en cuanto a validación emocional se refiere, este beneficio aplica sólo en “el papel”. ¿Qué quiero decir con esto? Que si bien leer unas líneas de validación emocional (p.ej.: “Entiendo que te sientas así”, “Debe de ser muy duro pasar por lo que estás pasando”) raro será que le hagan mal a nadie, NO equiparan el apoyo emocional que puede aportar la empatía real de un ser humano. De esto precisamente, hablaremos más adelante.
✔️ 4. Sensación de anonimato: la vergüenza de contar asuntos privados a un tercero, es un impedimento para muchas personas. Les hace procrastinar acudir a terapia o, incluso, no llegar a acudir nunca. Además, incluso ya en consulta pueden omitir información relevante por miedo a sentirse juzgados. Por lo que su discurso no es 100% sincero. Omitir información relevante puede condicionar tanto el proceso de evaluación, como de intervención.
✔️ 5. Más económico: es un tema de números. Incluso con las versiones de pago de la IA, el pago mensual es más barato que una terapia. Tengamos en cuenta que un psicólogo puede costar entre 60€ y 120€; dependiendo de sus años de experiencia, especialización, etc. Unido a que un proceso terapéutico puede suponer mínimo unas 10-12 sesiones, en términos económicos está claro que es una ventaja a tener en cuenta.
Hasta aquí, con todos estos motivos sobre la mesa, parece que hablar con una IA puede resultar más fácil, accesible y económico que abrirse a otra persona… ¿verdad?
Veamos la otra cara de la moneda…
Los riesgos reales de usar la IA como terapeuta
No todo es oro lo que reluce. Ahora nos toca ver la cara no tan bonita de utilizar la IA como terapeuta:
❌ 1. Falta de criterio clínico: la IA no ha sido concebida para abordar trastornos mentales. Y menos, trastornos mentales graves. No tiene la capacidad por sí sola de diagnosticar. Veámoslo con un ejemplo: una persona que padezca un Trastorno Límite de la Personalidad (TLP), puede compartir sus vivencias con la IA y pedirle feedback. Hasta ahí, todo okay. El problema está, en que esa información, estará sesgada por el propio TLP. Algo para lo que un psicólogo está formado en identificar: cuando el paciente tiene poca introspección, cuando presenta muy baja autocrítica, cuando se ve a sí mismo como la víctima en todos los escenarios de su vida… aspecto, que la IA no tiene en cuenta. La IA no tiene la capacidad de captar contradicciones sutiles ni cambios emocionales profundos. Eso es clave en terapia y muchas veces dice más que las palabras.
❌ 2. Respuestas inadecuadas: en la línea de lo anterior, la IA no tiene en cuenta tu contexto de la misma manera que lo puede hacer un psicólogo: lenguaje no verbal, emociones que experimentas cuando te expresas, gestos que denotan ansiedad (que probablemente ni tú eres consciente), etc. La incapacidad de la IA para integrar toda esta información de forma adecuada, le puede llevar a interpretaciones erróneas sobre tu situación.
❌ 3. Incapacidad de respuesta en casos de crisis: los psicólogos podemos tener consultas tranquilas y otras… no tanto. En algunos casos el/la paciente puede experimentar una abreacción durante la sesión. Es decir: una descarga o liberación de emociones reprimidas (p.ej: angustia, miedo, ira…) asociadas a un recuerdo concreto. Esto puede desencadenar un ataque de pánico, sensación de mareos, disociación… son situaciones en las que el terapeuta tiene que saber cómo reaccionar, y acompañar al paciente (corregulación). Por no hablar de casos graves como pueden ser pacientes con ideación suicida, autolesiones, o traumas graves. En este tipo de escenarios, las prestaciones de la IA se quedan cortas, y personalmente desaconsejaría totalmente acudir a una IA si el paciente presenta esos problemas.
❌ 4. Riesgo de dependencia emocional: al tratarse la IA de algo tan rápido y accesible, es difícil resistirse a la comodidad de quedarse en casa, sentado, calentito… versus tener que coordinarse con una persona para quedar a una hora, en un sitio, tener que prepararse, desplazarse… ¿cuál es el problema de esto? Que nos deshabituamos a incomodidades necesarias. Los humanos somos “vagos” por naturaleza. Si nos lo dan cómodo, mejor que con esfuerzo. Y las relaciones sociales sanas, requieren de esfuerzo: requieren de conversaciones difíciles, de poner límites, de respetar los límites de los demás, de exponerse al juicio/rechazo, etc. A todos estos elementos tan, TAN, necesarios, nos deshabituamos cuando sustituimos la IA por relaciones humanas. Pudiendo llegar incluso, a evitar pedir ayuda real cuando es necesario.
❌ 5. No hay garantía de la confidencialidad de la información compartida: cuando un paciente acude a consulta, uno de los aspectos primordiales que hemos de transmitir es que toda, absolutamente TODA la información que nos comparta en sesión es absolutamente confidencial. En nuestro Código Deontológico del Psicólogo (Consejo General de la Psicología), se recoge en el artículo 39 lo siguiente: “el/la psicólogo/a está obligado/a a guardar secreto profesional sobre toda la información obtenida en el ejercicio de su profesión, cualquiera que sea la fuente de dicha información”.
Por el contrario… si utilizas la IA como terapeuta, te expones a que la IA NO es un profesional sujeto a secreto profesional. Es decir: no hay confidencialidad deontológica ni legal como con un psicólogo. Además, las conversaciones pueden ser revisadas o usadas de forma anonimizada por OpenAI para mejorar el sistema o por motivos de seguridad.
❌ 6. Realmente… ¿funciona? ¿O sólo parchea?: si hay algo que no me canso de repetir tanto en mi consulta, como en mis redes sociales, es que una terapia que aborde únicamente los síntomas, está condenada al fracaso a largo plazo. No atender la raíz del problema sólo nos lleva a caminar en círculos, e incluso a cronificar el problema de base. Una terapia ha de ayudar al paciente a identificar sus propios patrones de funcionamiento (patrones antiguos y disfuncionales) y ayudarle a realizar las maniobras necesarias para instalar patrones nuevos y funcionales en su contexto y circunstancias actuales.
Un terapeuta utiliza resonancia emocional. Es decir, tiene la capacidad de empatizar, de sentir lo que la persona siente. La IA no. La IA utiliza mapas psicológicos. Es decir, compara la información que le compartes con marcos de psicología (terapia cognitivo-conductual, teoría del apego…), así como con ejemplos de cómo otros usuarios describen experiencias similares.
❌ 7. A la IA “no le importa” tu problema: dicho así suena muy duro… pero es así. La IA no tiene empatía como tal. Está programada para responder de manera cuidadosa, validante y clara. Busca evitar juicios, reducir daño, no escalar el malestar del usuario, fomentar agencia y buscar apoyo externo cuando considera necesario por la información que le das. Pero no es empatía, si no empatía simulada funcional.
Según varios estudios una de las variables que más impacto tiene en que la terapia funcione, es la alianza terapéutica. Es decir: el vínculo que se genera entre el paciente y el terapeuta. Este vínculo no es posible establecerlo – al menos, no de manera “real” – con la IA. Por varios motivos:
⚪ La IA no puede percibir cuánto te afecta algo más allá de lo que tú mismo le describas
⚪ La IA pasa constantemente señales que un psicólogo bien entrenado captaría al instante (p.ej.: incongruencias en tu discurso, puntos ciegos, etc.)
⚪ La IA no puede ofrecerte contención emocional real; únicamente puede proporcionarte estructura y lenguaje acorde a lo que tú mismo redactes. Es decir: puede ayudarte a entender, ordenar y nombrar elementos que te resulten difíciles; pero no puede sostenerte emocionalmente como lo haría un humano con empatía y resonancia emocional.
En conclusión, el uso de la IA no es blanco ni negro. Tiene sus matices. Sus luces y sus sombras. Ahora que ya conoces un poco más sobre sus beneficios y riesgos, espero que el uso que hagas de la IA sea mucho más coherente, y no sólo no perjudique tu salud mental, si no que te aporte mejor calidad de vida 🤍
Espero que te haya resultado interesante. No te olvides de compartirlo con quien creas que pueda interesarle, y deja tu comentario en la cajita de abajo. Me encantaría conocer tu opinión sobre este tema.
Si estás pensando en comenzar tu proceso de terapia, contáctanos sin compromiso y mi equipo de psicólogas y yo buscaremos la manera de poder ayudarte 😊
Teléfono de contacto (Whatsapp): +34 684 60 90 24












0 comentarios