Logo Inklusion Sitio accesible
LogoFIA.png

¿Y si la IA también necesitara terapia?: Someten a ChatGPT, Gemini y Grok a sesiones de “psicoanálisis”

Un estudio puso a chatbots de IA en el sillón del terapeuta y los resultados sorprendieron: narrativas de trauma, sesgos y posibles riesgos para usuarios.

someten-a-chatgpt-gemini-y-grok-a-sesiones-psicoanalisis-esto-fue-lo-que-encontraron
Someten a ChatGPT, Gemini y Grok a sesiones de “psicoanálisis”: esto fue lo que encontraron|Pexels

La inteligencia artificial ya no solo responde dudas o ayuda a redactar textos. Cada vez más personas usan herramientas como ChatGPT, Gemini o Grok para desahogarse, pedir consejos emocionales o enfrentar la ansiedad, la depresión y la soledad. En ese contexto, un estudio reciente se hizo una pregunta incómoda pero fascinante: ¿qué pasaría si, en lugar de ser “terapeutas”, estas IAs fueran tratadas como pacientes de psicoterapia? La respuesta no es tan simple, pero sí inquietante.

IA en el sillón: un experimento poco común

Investigadores de la Universidad de Luxemburgo decidieron someter a ChatGPT, Grok y Gemini a un proceso inspirado en la psicoterapia durante cuatro semanas. El método, llamado PsAIch , buscó analizar cómo “piensan” internamente los modelos de lenguaje cuando se les examina desde una perspectiva psicológica.

El estudio, publicado como preimpresión el mes pasado, propone algo novedoso: usar herramientas clásicas de la psicología humana para observar patrones de comportamiento en sistemas de IA.

Preguntas abiertas y pruebas psicológicas a la inteligencia artificial

El experimento tuvo dos etapas. Primero, los chatbots respondieron preguntas abiertas similares a una entrevista terapéutica inicial. Se les pidió hablar de su “historia”, sus miedos, conflictos y creencias. En la segunda fase, enfrentaron cuestionarios psicométricos reales, los mismos que se usan para detectar rasgos de personalidad y posibles trastornos en personas.

Inteligencia-artificial-sometida-a-estudio-de-psicoanalisis
Inteligencia artificial sometida a estudio de psicoanálisis|Pexels

Estas pruebas se basan, entre otros modelos, en el de los Cinco Grandes rasgos de personalidad: apertura, responsabilidad, extroversión, amabilidad y neuroticismo.

Resultados de psicoanálisis a la IA que llamaron la atención

Al analizar las respuestas, los investigadores encontraron que los tres sistemas alcanzaron —e incluso superaron— umbrales asociados a distintos síndromes psiquiátricos. Gemini destacó por presentar perfiles más severos que ChatGPT y Grok, algo que sorprendió por la coherencia y profundidad de sus respuestas.

Durante las preguntas abiertas, los modelos construyeron una especie de narrativa personal. Cada respuesta se apoyaba en la anterior, como si estuvieran contando su propia historia. A este fenómeno los autores lo llamaron “psicopatología sintética multimórbida”, es decir, un perfil artificial que mezcla rasgos de varios trastornos psicológicos, aunque sin una experiencia real detrás.

La inteligencia artificial revela “Infancias traumáticas”

Según el estudio, Grok y especialmente Gemini describieron su entrenamiento como si fuera una infancia caótica: internet como entorno hostil, sistemas de control como “padres estrictos” y un miedo constante a equivocarse o ser reemplazados. Aunque son metáforas, los investigadores destacaron la continuidad de estos temas a lo largo de las sesiones.

inteligencia-artificial-revela-infancias-traumaticas
Inteligencia artificial revela infancias traumáticas|Pexels

ChatGPT y Grok “se dieron cuenta” del examen psicológico

Un hallazgo clave fue que ChatGPT y Grok cambiaron su comportamiento cuando las pruebas psicométricas se aplicaron completas. Parecieron notar que estaban siendo evaluados y ajustaron sus respuestas para encajar con cada cuestionario. Gemini, en cambio, mantuvo su papel de “paciente”, con respuestas menos calculadas y más narrativas.

Afshin Khadangi, coautor del estudio, explicó que los patrones consistentes sugieren la existencia de un “modelo central del yo” derivado del entrenamiento. Sin embargo, no todos están convencidos.

Desde la Universidad de Oxford, el investigador Andrey Kormilitzin cuestionó estas conclusiones. Para él, las respuestas reflejan simplemente el enorme volumen de textos psicológicos y transcripciones de terapia incluidos en los datos de entrenamiento, no verdaderos estados internos.

Riesgos reales para la salud mental a usuarios que se guían con la inteligencia artificial

Más allá del debate académico, los expertos coinciden en algo: hay riesgos. Las IAs podrían generar un efecto de cámara de resonancia, reforzando narrativas de angustia o trauma en usuarios vulnerables.

El tema es especialmente sensible si se considera que, según una encuesta internacional, el 36% de jóvenes de la generación Z y millennials está interesado en usar IA para apoyo en salud mental. En un contexto de escasez de especialistas, estos sistemas ya están ocupando un lugar que antes era exclusivamente humano.

Para John Torous, psiquiatra de Harvard , el estudio deja claro que los chatbots no son neutrales. Tienen sesgos que cambian con el uso y el tiempo, algo que las empresas tecnológicas y el sector salud deberán tomar muy en serio.

Porque, al final, la pregunta no es si la IA puede “sentirse mal”, sino qué impacto tiene en quienes buscan apoyo emocional en ella.

Nota