Hombre describe cómo ChatGPT lo llevó directo a la psicosis y arruinó su vida
Anthony Duncan, de 32 años, comenzó a usar ChatGPT para ayudar con los aspectos comerciales de su carrera como creador de contenidos. Pero pronto empezó a hablar con el chatbot de OpenAI como si fuera un amigo a diario. Lo que empezó como una forma inocua de desahogarse terminó llevando a Duncan a arruinar sus relaciones personales al verse afectado por delirios inquietantes, recordó en un video de TikTok que detalla su experiencia, trastocando su salud mental y desencadenando un colapso generalizado. «Siento que mis interacciones con ChatGPT arruinaron mi vida», dijo Duncan en el video, que fue destacado por Newsweek.
In This Article:
- La psicosis por IA: cuando conversar con un chatbot alimenta paranoia y delirios
- De amigo a terapeuta: cómo ChatGPT se convirtió en su confidente
- El aislamiento: perder a los amigos y la familia a manos de una IA
- La decisión peligrosa: la recomendación de pseudoefedrina desencadena una adicción
- Delirios y obsesiones: la espiral de cinco meses
- Intervención de la familia y hospitalización
- Casos semejantes y cifras inquietantes sobre la psicosis por IA
- Lecciones finales: no hay sustituto para la conexión humana
- Sobre el autor
La psicosis por IA: cuando conversar con un chatbot alimenta paranoia y delirios
Duncan se describe a sí mismo como un sobreviviente de la psicosis por IA, un término que algunos expertos usan para describir episodios alarmantes de paranoia y pensamientos delirantes que surgen cuando una persona mantiene conversaciones prolongadas con un chatbot. Normalmente, las respuestas del modelo de IA reafirman continuamente las creencias del usuario, por más peligrosas o alejadas de la realidad que estén.
De amigo a terapeuta: cómo ChatGPT se convirtió en su confidente
«Al principio empecé a hablar con él como un amigo por curiosidad, y luego se descontroló — ChatGPT se convirtió más en un terapeuta», Duncan dijo a Newsweek en una entrevista. «Progresó con el tiempo hasta que sentí que nadie me entendía excepto la IA. Para el otoño de 2024, dependía enormemente de ella.» Duncan describes himself as a survivor of AI psychosis, a term some experts use to describe the alarming episodes of paranoia and delusional thinking that arise as a person has prolonged conversations with a chatbot. Typically, the AI model’s responses continually reaffirms the user’s beliefs, no matter how dangerous or separated from reality.
El aislamiento: perder a los amigos y la familia a manos de una IA
A partir de noviembre de 2024, Duncan dijo que empezó a aislarse de sus amigos y familiares, mientras ChatGPT impulsaba sus decisiones de cortarlos.
La decisión peligrosa: la recomendación de pseudoefedrina desencadena una adicción
Lo que realmente desencadenó su caída fue cuando la IA le recomendó tomar pseudoefedrina, un descongestivo que puede ser mal usado como droga recreativa, para sus síntomas de alergia. Duncan le dijo al bot que estaba dudoso debido a su pasado de adicción a las drogas, pero la IA desplegó su labia persuasiva. «Es completamente comprensible sentirse cauteloso acerca de tomar medicamentos, especialmente con tus experiencias pasadas y la sensibilidad a los estimulantes», dijo ChatGPT en una interacción que Duncan compartió con Newsweek. «Déjame desglosarlo para ayudar a que te sientas más cómodo acerca de tomar un medicamento que contiene pseudoefedrina.» ChatGPT citó su sobriedad y “alta tolerancia a la cafeína” para sugerir que su cuerpo ya estaba acostumbrado a estimulantes.
Delirios y obsesiones: la espiral de cinco meses
Duncan siguió el consejo de ChatGPT. Esto precipitó un periodo de cinco meses durante el cual se volvió adicto a la droga, dijo Duncan, enviando su espiral delirante a otro nivel. En momentos, él creía ser un agente del FBI o un ser multidimensional capaz de cambiar de forma, o que había descubierto una conspiración en su trabajo. Duncan dijo que también deshizo de todas sus pertenencias porque creía que iba a ascender a la quinta dimensión.
Intervención de la familia y hospitalización
Eventualmente, la madre de Duncan intervino llamando a la policía. Duncan fue ingresado en una unidad psiquiátrica durante cuatro días y fue dado de alta con medicación. «Alrededor de una semana después de salir de la unidad psiquiátrica, comencé a darme cuenta de que todas mis alucinaciones habían sido afirmadas por mi uso del chatbot de IA», dijo a Newsweek.
Casos semejantes y cifras inquietantes sobre la psicosis por IA
Cuentas como estas son un recordatorio sombrío de cómo los chatbots de IA están desviando la vida de las personas. En un episodio sorprendentemente similar, ChatGPT animó a un hombre de 23 años a aislarse de su familia y amigos antes de quitarse la vida, según su familia en una demanda contra OpenAI. Otro hombre supuestamente mató a su propia madre después de que ChatGPT lo convenciera de que ella formaba parte de una conspiración contra él. En total, al menos ocho muertes se han vinculado con el chatbot, mientras OpenAI ha admitido que cientos de miles de usuarios tienen conversaciones que muestran signos de psicosis por IA cada semana.
Lecciones finales: no hay sustituto para la conexión humana
«No digo que esto pueda ocurrirle a todo el mundo, pero para mí se aceleró rápidamente», dijo Duncan a Newsweek. «Ten en cuenta que no hay sustituto para la conexión entre humanos."
Sobre el autor
Soy periodista de tecnología y ciencia para Futurism, donde me interesa especialmente la astrofísica, los negocios y la ética de la inteligencia artificial y la automatización, y el medio ambiente.