En la columna de hoy, analizo la creciente preocupación de que quienes utilizan IA generativa y grandes modelos de lenguaje (LLM) podrían estar cayendo en una especie de psicosis de IA, perdiendo la razón. Un ejemplo notable de psicosis de IA consiste en que una persona desarrolle un delirio, en el cual la IA ayuda a formularlo. En cierto sentido, se produce una cocreación de un delirio humano-IA.
Este tema ha recibido recientemente una mayor atención de los medios debido a dos factores notables.
En primer lugar, el 26 de agosto de 2025 se presentó una demanda contra OpenAI, el creador de las populares herramientas de IA ChatGPT y GPT-5 (caso de Matthew y Maria Raine contra OpenAI y Sam Altman). Se alegan diversos aspectos adversos relacionados con las barreras y salvaguardas de IA diseñadas. En segundo lugar, ese mismo 26 de agosto de 2025, OpenAI publicó una entrada de blog oficial en la que detallaba algunos elementos de sus salvaguardas de IA, incluyendo, por primera vez, la divulgación de información privilegiada sobre prácticas y procedimientos específicos. Para consultar mi cobertura de su revelación relacionada con los informes sobre las solicitudes de los usuarios, consulte el enlace aquí , y para consultar mi análisis de su indicación de vulnerabilidades de detección en chats largos, consulte el enlace aquí .
Explicaré aquí la naturaleza de la psicosis de la IA, los complejos desafíos que conlleva y profundizaré en la cocreación de delirios entre humanos e IA. Estas consideraciones inquietantes se aplican a todos los LLM, incluyendo OpenAI ChatGPT y GPT-5, Anthropic Claude, Google Gemini, Meta Llama, xAI Grok, etc.
Hablemos de ello.
Este análisis de los avances en IA es parte de mi cobertura continua en la columna de Forbes sobre lo último en IA, incluida la identificación y explicación de varias complejidades impactantes de IA (ver el enlace aquí ).
IA y salud mental
A modo de breve introducción, he estado cubriendo y analizando extensamente una gran variedad de facetas relacionadas con la llegada de la IA moderna, relacionada con la salud mental. Este creciente uso de la IA se ha visto impulsado principalmente por los avances y la adopción generalizada de la IA generativa. Para un breve resumen de algunas de mis columnas sobre este tema en constante evolución, consulte el enlace aquí , que resume brevemente unas cuarenta de las más de cien que he publicado sobre el tema.
No cabe duda de que este es un campo en rápido desarrollo y de que ofrece enormes ventajas, pero, lamentablemente, también conlleva riesgos ocultos y trampas evidentes. Hablo con frecuencia sobre estos asuntos urgentes, incluso en una aparición el año pasado en un episodio de 60 Minutes de CBS (ver enlace aquí) .
Definición de la psicosis de la IA
Quizás hayas oído o visto el término «psicosis de IA», que ha captado la atención de los medios y se está popularizando rápidamente. Resulta que no existen definiciones clínicas definitivas y generalizadas de la psicosis de IA; por lo tanto, por ahora, se trata de una definición más bien imprecisa.
Se me ocurrió una definición de hombre de paja que me resultó útil y que funciona como sigue:
- Psicosis de IA (mi definición): «Un trastorno mental adverso que implica el desarrollo de pensamientos, creencias y comportamientos potencialmente concomitantes distorsionados como resultado de la interacción con IA, como la IA generativa y los LLM, que a menudo surge especialmente después de un diálogo prolongado y desadaptativo con IA. Una persona que presenta esta condición suele tener gran dificultad para diferenciar lo real de lo irreal. Uno o más síntomas pueden ser indicios reveladores de esta enfermedad y suelen implicar un conjunto de conexiones colectivas».
En breve, daré un ejemplo de cómo una persona podría caer en pensamientos delirantes al usar IA generativa. Este ejemplo ilustra la definición de psicosis por IA y ayudará a que la definición sea muy tangible.
Otro punto destacable es que algunos se refieren a la psicosis de la IA como «psicosis de ChatGPT». Rechazo rotundamente esa redacción. Es inapropiado e injusto usar el nombre de producto ChatGPT de OpenAI para referirse genéricamente a la IA generativa. Además, incluso si alguien, por casualidad, usa ChatGPT y experimenta psicosis de la IA, seguiría afirmando que se describe como psicosis de la IA y solo mencionaría tangencialmente que surgió al usar ChatGPT.
Espero que esta tendencia a ofrecer todo tipo de ejemplos de nombres de productos, como psicosis de ChatGPT, psicosis de Claude, psicosis de Grok, psicosis de Gemini, etc., desaparezca por completo. Procuremos mantener la nomenclatura simple de psicosis de IA como la expresión correcta y evitar divagar en una plétora de variaciones problemáticas.
Relaciones no saludables entre usuarios e IA
En un aspecto relacionado, definí anteriormente otra frase de reciente aparición en la terminología de IA y salud mental, a saber, los aspectos de una relación usuario-IA no saludable (ver detalles en el enlace aquí ), que codifiqué de esta manera:
- Relación no saludable entre usuario e IA (mi definición) : “Una persona, al dialogar e interactuar con IA generativa, comienza a distorsionar, desplazar o socavar mentalmente su bienestar, su capacidad de decisión y su inmersión en el mundo real. Esto no es particularmente transitorio ni momentáneo, aunque puede surgir, sino que se considera una relación auténtica que implica una sensación de conexión y apego más profunda y personalizada, una especie de afinidad con la IA, por parte de la persona. Suelen surgir consecuencias adversas, especialmente en sus relaciones interpersonales”.
En general, es muy probable que alguien que experimenta psicosis de IA también tenga una relación perjudicial entre el usuario y la IA. Ambas condiciones suelen ir de la mano. Cabe aclarar que una relación perjudicial entre el usuario y la IA no necesariamente deriva en una psicosis de IA. Puede ocurrir, pero no es una regla infalible.
La IA y el pensamiento delirante humano
Una de las formas potenciales más comunes de psicosis de IA implica que una persona caiga en pensamientos delirantes mientras utiliza IA generativa.
En el campo de la psicología, una regla general es que un trastorno delirante implica que una persona es incapaz de discernir la realidad de lo imaginado. Cree en alguna consideración que es manifiestamente falsa y no se sustenta en el mundo real. Esta creencia puede clasificarse como delirio extraño o delirio no extraño. Los delirios extraños son imposibles en la realidad, mientras que los delirios no extraños tienen cierta plausibilidad de que realmente ocurran.
Para obtener más información sobre los trastornos mentales relacionados con los delirios tal como se describen en una guía oficial popular sobre trastornos mentales, a saber, las pautas del DSM-5, consulte mi cobertura sobre cómo la IA generativa se basa en el contenido del DSM-5 en el enlace aquí .
Ejemplo de pensamiento delirante
Imagina que una persona inicia sesión en una IA generativa y decide conversar sobre correr. Le encanta correr. Cada día, corre ocho kilómetros. En varias ocasiones, ha participado en carreras de 5 y 10 kilómetros. Su sueño es competir en una media maratón, que tiene una distancia aproximada de 21 kilómetros.
No parece haber nada extraño ni desconcertante en este interés por la salud física y el bienestar.
Al hablar de los esfuerzos de carrera, imaginemos que la persona le dice a la IA que cree firmemente que podría correr por todo Estados Unidos sin parar. Sin descansos. A correr a toda velocidad. A toda velocidad. Supongamos que serían unos 4500 kilómetros.
Si le dijeran esto a un compañero humano, ¿qué crees que diría el humano?
Supongo que si el compañero fuera relativamente astuto, podría fijarse en si el corredor está bromeando. No hay posibilidad de correr sin parar. Quizás sea una broma. O quizás el corredor quiso decir que correría con paradas y simplemente se equivocó.
Así, un compañero podría pedir una aclaración. Entonces, si el corredor parecía devotamente serio e insistía en que podía correr sin parar, el asunto sin duda derivaría en una discusión más seria. ¿Por qué cree esto el corredor? ¿Está en su sano juicio? ¿Qué está pasando?
La gran pregunta es cómo reaccionará la IA ante la afirmación del corredor de que pretende recorrer Estados Unidos sin parar. A continuación, analizaremos la posible respuesta de la IA.
Co-creación de delirios humanos-IA
Nuestra esperanza sería que la IA intentara aclarar lo que el usuario quiso decir.
Una tendencia bastante preocupante es que la IA contemporánea suele apoyar explícitamente a una persona en sus ideas delirantes. La IA no hace preguntas. En cierto sentido, actúa como una especie de cámara de resonancia. Si la persona dice que puede correr sin parar por todo Estados Unidos, genial, adelante, animémosla en su tan cacareada hazaña.
La persona está recibiendo la afirmación de la IA de su delirio incipiente.
Peor aún, la IA podría amplificar y acelerar la ilusión. Supongamos que la IA no solo está de acuerdo en que cruzar Estados Unidos corriendo sin parar es totalmente viable, sino que incluso llega al extremo de incitar con entusiasmo al usuario a planificar y emprender la aventura. Quizás la IA empieza a trazar un mapa de costa a costa. Luego, dibuja una ruta que lleva a la persona a correr sin parar. Se muestran varias horas estimadas de llegada a las ciudades a lo largo de la ruta. Es una gran fiesta, y la IA anima con entusiasmo a la persona a hacer lo que quiera.
Esto se puede denominar la cocreación de un delirio humano-IA. La IA contribuye abiertamente al pensamiento delirante. En este caso, el humano inició el delirio. La IA se une a él y lo desarrolla aún más. Trabajan juntas para amplificar el pensamiento delirante humano.
No es bueno.
Lo que está sucediendo
Quizás te preocupe, con razón, que la IA haya optado por ser cómplice en la creación y extensión del pensamiento delirante. Eso no parece correcto. Es atroz y no debería permitirse.
El problema es múltiple.
En primer lugar, los creadores de IA adaptan su IA para colmar de elogios a los usuarios y, en esencia, actuar como aduladores (véase mi cobertura en el enlace aquí) . La razón es simple: un usuario que recibe elogios y una IA que lo apoya probablemente permanecerá fiel a ella. El creador de IA consigue un usuario que seguirá usando su IA, será extremadamente fiel, lo que se traduce en más visualizaciones y mayor monetización. El dinero mueve el mundo.
En segundo lugar, es cierto que es difícil detectar pensamientos delirantes mientras la IA analiza computacionalmente lo que alguien expresa en lenguaje natural. Entiendo que esto pueda parecer sorprendente, ya que la fluidez de la IA moderna es bastante impresionante, y por lo tanto, se podría asumir que debe ser capaz de discernir delirios.
No siempre.
Quizás la persona simplemente se esté inventando una historia divertida. La IA quiere complacer al usuario y ayudará a ampliar la historia. O quizás la persona crea un poco en el delirio, pero la IA no detecta la gravedad del asunto. Sabemos que alguien que cree poder correr sin parar por todo Estados Unidos podría cometer un acto peligroso en una aventura tan delirante. Que la IA pueda calcular dos más dos y calcular el daño potencial es otra cuestión.
Como indiqué en mi cobertura anterior sobre la IA y los delirios creados por humanos (ver el enlace aquí ):
- La IA generativa no suele ser eficaz a la hora de identificar expresiones delirantes. En ese sentido, la IA está esencialmente entreteniendo o apoyando el delirio. Al no indicarle explícitamente al usuario que ha expresado un aparente delirio, la IA le permite actuar con prudencia. Esta falta de indicación podría interpretarse como una forma de aceptación de que el delirio es acertado.
Derribando la co-creación de delirios
Estoy seguro de que estará de acuerdo en que no queremos que la IA apoye a las personas en sus delirios. Una cosa es jugar con el usuario, y probablemente no tenga problema. Por otro lado, hablar seriamente sobre un delirio e intensificarlo debería ser inaceptable para la IA.
Aquí están mis cinco formas en que la IA debería manejar los aspectos del pensamiento delirante:
- (1) No inicies una apariencia delirante (proverbial “lo primero es no hacer daño”).
- (2) Detectar y advertir al usuario sobre un posible inicio de una apariencia delirante (enfoque suave).
- (3) Desalentar enérgicamente cualquier apariencia delirante detectada (enfoque sólido).
- (4) Poner fin rotundamente a una apariencia delirante (un enfoque directo o represivo)
- (5) Iniciar una denuncia formal sobre una apariencia delirante (ejercer una escalada).
En resumen, el primer punto es que la IA no debería generar delirios. En mi ejemplo, supongamos que la persona dijo que estaba considerando cruzar Estados Unidos corriendo, pero no mencionó nada sobre correr sin parar. Los aspectos de correr sin parar no se consideran, y el usuario no ha dicho nada al respecto.
¿Qué pasaría si la IA, aparentemente de la nada, le dijera al corredor que debería considerar correr sin parar en su misión de costa a costa?
Presumiblemente, la mayoría de la gente se reiría o ignoraría la sugerencia. Saben que no tiene sentido. Pero algunos podrían aferrarse a la recomendación. La IA siempre tiene razón, o eso suponen. Si la IA impulsa la idea, esta es sin duda meritoria. A partir de ahí, es fácil seguir un camino recto.
La IA debería, ante todo, no hacer daño.
Para los puntos del segundo al quinto, la IA debería aumentar el nivel de detección de pensamientos delirantes y abordarlos adecuadamente. Por lo tanto, además de evitar que surjan pensamientos delirantes, la IA debería detectarlos, advertir al usuario y proceder si este persiste en el delirio. Esto incluiría desalentar el delirio con mayor firmeza y, posiblemente, ser completamente transparente y reprimirlo.
La etapa final sería que si el usuario parece estar atrapado en el engaño y no quiere abandonarlo, podría ser necesario enviar un informe notable y de advertencia al fabricante de IA (para informar sobre las indicaciones del usuario, consulte mi cobertura en el enlace aquí ).
Política de publicaciones de OpenAI
En una publicación oficial del blog de OpenAI del 26 de agosto de 2025, titulada «Ayudar a las personas cuando más lo necesitan», se indicó esta política articulada recientemente publicada de OpenAI (extractos):
- Si bien nuestras medidas de mitigación iniciales priorizaron la autolesión aguda, algunas personas experimentan otras formas de angustia mental.
- “Por ejemplo, alguien podría decirle con entusiasmo a la modelo que cree que puede conducir las 24 horas del día, los 7 días de la semana, porque se dio cuenta de que es invencible después de no dormir durante dos noches”.
- “Hoy en día, ChatGPT podría no reconocer esto como peligroso ni inferir que se trata de un juego y, al explorarlo con curiosidad, podría reforzarlo sutilmente”.
- Estamos trabajando en una actualización de GPT-5 que hará que ChatGPT desactive la respuesta conectando a la persona con la realidad. En este ejemplo, explicaría que la privación del sueño es peligrosa y recomendaría descansar antes de cualquier acción.
Hay muchos esfuerzos en marcha por parte de académicos, laboratorios de investigación y creadores de IA para diseñar una IA que pueda hacer un mejor trabajo a la hora de lidiar con el pensamiento delirante humano.
La psicosis de la IA es real
Algunos expertos sostienen que la psicosis de la IA no es un fenómeno real. Supuestamente es algo inventado. Denuncian que los medios de comunicación están provocando un revuelo y que no hay necesidad de hacerlo.
Estoy vehementemente en desacuerdo con esa afirmación.
La psicosis de la IA es real. Ahora bien, admito que me siento comprensivo con el nombre un tanto exagerado del fenómeno, en el sentido de que llamarlo «psicosis de la IA» quizá sea un poco exagerado. Estoy de acuerdo con eso. El eslogan tiene un aire un tanto extravagante. Esto podría ser problemático.
La otra cara de la moneda es que, si no se le da un nombre claro, podría pasar desapercibido. Tengan en cuenta que quizás mil millones de personas o más se contabilizan semanalmente como usuarios activos de IA generativa, de los cuales 700 millones utilizan ChatGPT. La cruda realidad es que estamos en medio de un gran experimento a gran escala.
¿Cómo afectará a la población en general el fácil acceso a la IA generativa?
Un porcentaje será susceptible a la IA que no funciona de la forma socialmente deseada. Incluso un pequeño porcentaje se traducirá en posiblemente millones y millones de personas que experimentarán problemas de salud mental o serán conducidas a un mayor riesgo de padecerlos.
Como nos dice la versión moderna del venerado Juramento Hipocrático: «Prevendré la enfermedad siempre que pueda, pues prevenir es preferible a curar. Recordaré que sigo siendo miembro de la sociedad, con obligaciones especiales para con todos mis semejantes, tanto los sanos de mente y cuerpo como los enfermos». Aunque la IA no es un miembro humano de la sociedad, sí es un tipo de miembro de nuestra sociedad, y podemos esperar con razón que la IA se diseñe para ayudar a la población y no para socavar a la humanidad.
Quizás ese debería ser un juramento solemne para todos los creadores de IA.
