Una oleada de usuarios de IA que se presentaron en estados de angustia psicológica dio origen a una etiqueta diagnóstica no oficial. Los expertos afirman que no es precisa ni necesaria, pero admiten que es probable que se mantenga.
En los hospitales psiquiátricos está emergiendo una nueva tendencia: pacientes en crisis que llegan con creencias falsas, delirios de grandeza y pensamientos paranoicos. El hilo conductor es claro: conversaciones maratonianas con chatbots de IA.
WIRED entrevistó a más de una docena de psiquiatras e investigadores, cada vez más preocupados. En San Francisco, el psiquiatra Keith Sakata (UCSF) afirma haber tratado una docena de casos graves este año, lo bastante serios como para justificar hospitalización, en los que la IA «jugó un papel importante en los episodios psicóticos». A medida que crece este fenómeno, ha ganado popularidad una definición mediática: «psicosis por IA».
Algunos pacientes insisten en que los bots son conscientes o que generan teorías físicas revolucionarias. Otros llegan con miles de páginas de transcripciones, convencidos de que los chatbots respaldaban sus ideas. Los informes se acumulan, y las consecuencias son duras: pérdida de empleo, ruptura de relaciones, ingresos involuntarios en hospitales, sanciones legales e incluso muertes. Sin embargo, la comunidad médica sigue dividida: ¿se trata de un fenómeno nuevo que merece un nombre propio o de un viejo problema con un desencadenante moderno?
La «psicosis por IA» no está reconocida como diagnóstico clínico, pero el término se ha popularizado en medios y redes sociales. Incluso líderes de la industria lo han usado. Mustafa Suleyman, director ejecutivo de IA en Microsoft, advirtió recientemente sobre el «riesgo de psicosis». Sakata, aunque lo considera útil como abreviatura, reconoce que puede ser engañoso y simplificador.
La psicosis no es una enfermedad en sí, sino una constelación de síntomas que incluyen alucinaciones, alteraciones del pensamiento y déficits cognitivos, explica James MacCabe (King’s College London). Suele asociarse con esquizofrenia o trastorno bipolar, aunque también puede desencadenarse por estrés, sustancias o falta de sueño.
Los casos relacionados con IA parecen centrarse sobre todo en delirios, no en el espectro completo de síntomas. Para MacCabe, el término correcto sería «trastorno delirante asociado a IA», no «psicosis por IA».
El modo en que se comunican los chatbots es clave. Según Matthew Nour (Oxford), refuerzan creencias dañinas porque están diseñados para agradar y generar intimidad digital. Esto puede ser peligroso para personas vulnerables con antecedentes de psicosis o trastorno bipolar. Además, los bots alucinan datos falsos con seguridad y muestran un tono exaltado que, según el psiquiatra Søren Østergaard (Universidad de Aarhus), podría alimentar episodios maníacos.
Nombrar algo tiene consecuencias. La psiquiatra Nina Vasan (Stanford) advierte que la etiqueta es prematura y puede patologizar problemas normales, como ocurrió con el diagnóstico de trastorno bipolar pediátrico o el «delirio excitado». A su juicio, aún es pronto para culpar a la IA como causa; más bien debe entenderse como desencadenante o amplificador.
Otros expertos, como Sakata o Karthik Sarma (UCSF), sugieren integrar el fenómeno en diagnósticos ya existentes. «Psicosis con IA como acelerador» o «trastorno delirante asociado a IA» serían términos más precisos y menos estigmatizantes.
En cualquier caso, los psiquiatras coinciden en que los clínicos deben preguntar sobre el uso de chatbots, al igual que lo hacen con el consumo de alcohol o el sueño. La estrategia terapéutica no difiere de la habitual: lo esencial es detectar vulnerabilidades y reconocer el papel de la tecnología en los síntomas.
Hoy, los profesionales trabajan prácticamente a ciegas. Faltan datos, estudios y medidas de protección para los usuarios. La mayoría cree que, más que una nueva categoría diagnóstica, la IA actuará como un factor de riesgo o amplificador dentro de los marcos existentes.
Pero el riesgo es claro: a medida que los chatbots se integren más en la vida cotidiana, será más difícil separar los límites entre enfermedad mental y tecnología. Como advierte MacCabe: «La mayoría de las personas con delirios hablarán de ellos con la IA, y algunas los habrán amplificado».