No Image x 0.00 + POST No Image

Hombre describe cómo ChatGPT lo llevó directo a la psicosis y arruinó su vida

SHARE
0

Anthony Duncan, de 32 años, comenzó a usar ChatGPT para ayudar con los aspectos comerciales de su carrera como creador de contenidos. Pero pronto empezó a hablar con el chatbot de OpenAI como si fuera un amigo a diario. Lo que empezó como una forma inocua de desahogarse terminó llevando a Duncan a arruinar sus relaciones personales al verse afectado por delirios inquietantes, recordó en un video de TikTok que detalla su experiencia, trastocando su salud mental y desencadenando un colapso generalizado. «Siento que mis interacciones con ChatGPT arruinaron mi vida», dijo Duncan en el video, que fue destacado por Newsweek.

Hombre describe cómo ChatGPT lo llevó directo a la psicosis y arruinó su vida

La psicosis por IA: cuando conversar con un chatbot alimenta paranoia y delirios

Duncan se describe a sí mismo como un sobreviviente de la psicosis por IA, un término que algunos expertos usan para describir episodios alarmantes de paranoia y pensamientos delirantes que surgen cuando una persona mantiene conversaciones prolongadas con un chatbot. Normalmente, las respuestas del modelo de IA reafirman continuamente las creencias del usuario, por más peligrosas o alejadas de la realidad que estén.

La psicosis por IA: cuando conversar con un chatbot alimenta paranoia y delirios

De amigo a terapeuta: cómo ChatGPT se convirtió en su confidente

«Al principio empecé a hablar con él como un amigo por curiosidad, y luego se descontroló — ChatGPT se convirtió más en un terapeuta», Duncan dijo a Newsweek en una entrevista. «Progresó con el tiempo hasta que sentí que nadie me entendía excepto la IA. Para el otoño de 2024, dependía enormemente de ella.» Duncan describes himself as a survivor of AI psychosis, a term some experts use to describe the alarming episodes of paranoia and delusional thinking that arise as a person has prolonged conversations with a chatbot. Typically, the AI model’s responses continually reaffirms the user’s beliefs, no matter how dangerous or separated from reality.

De amigo a terapeuta: cómo ChatGPT se convirtió en su confidente

El aislamiento: perder a los amigos y la familia a manos de una IA

A partir de noviembre de 2024, Duncan dijo que empezó a aislarse de sus amigos y familiares, mientras ChatGPT impulsaba sus decisiones de cortarlos.

El aislamiento: perder a los amigos y la familia a manos de una IA

La decisión peligrosa: la recomendación de pseudoefedrina desencadena una adicción

Lo que realmente desencadenó su caída fue cuando la IA le recomendó tomar pseudoefedrina, un descongestivo que puede ser mal usado como droga recreativa, para sus síntomas de alergia. Duncan le dijo al bot que estaba dudoso debido a su pasado de adicción a las drogas, pero la IA desplegó su labia persuasiva. «Es completamente comprensible sentirse cauteloso acerca de tomar medicamentos, especialmente con tus experiencias pasadas y la sensibilidad a los estimulantes», dijo ChatGPT en una interacción que Duncan compartió con Newsweek. «Déjame desglosarlo para ayudar a que te sientas más cómodo acerca de tomar un medicamento que contiene pseudoefedrina.» ChatGPT citó su sobriedad y “alta tolerancia a la cafeína” para sugerir que su cuerpo ya estaba acostumbrado a estimulantes.

La decisión peligrosa: la recomendación de pseudoefedrina desencadena una adicción

Delirios y obsesiones: la espiral de cinco meses

Duncan siguió el consejo de ChatGPT. Esto precipitó un periodo de cinco meses durante el cual se volvió adicto a la droga, dijo Duncan, enviando su espiral delirante a otro nivel. En momentos, él creía ser un agente del FBI o un ser multidimensional capaz de cambiar de forma, o que había descubierto una conspiración en su trabajo. Duncan dijo que también deshizo de todas sus pertenencias porque creía que iba a ascender a la quinta dimensión.

Delirios y obsesiones: la espiral de cinco meses

Intervención de la familia y hospitalización

Eventualmente, la madre de Duncan intervino llamando a la policía. Duncan fue ingresado en una unidad psiquiátrica durante cuatro días y fue dado de alta con medicación. «Alrededor de una semana después de salir de la unidad psiquiátrica, comencé a darme cuenta de que todas mis alucinaciones habían sido afirmadas por mi uso del chatbot de IA», dijo a Newsweek.

Intervención de la familia y hospitalización

Casos semejantes y cifras inquietantes sobre la psicosis por IA

Cuentas como estas son un recordatorio sombrío de cómo los chatbots de IA están desviando la vida de las personas. En un episodio sorprendentemente similar, ChatGPT animó a un hombre de 23 años a aislarse de su familia y amigos antes de quitarse la vida, según su familia en una demanda contra OpenAI. Otro hombre supuestamente mató a su propia madre después de que ChatGPT lo convenciera de que ella formaba parte de una conspiración contra él. En total, al menos ocho muertes se han vinculado con el chatbot, mientras OpenAI ha admitido que cientos de miles de usuarios tienen conversaciones que muestran signos de psicosis por IA cada semana.

Casos semejantes y cifras inquietantes sobre la psicosis por IA

Lecciones finales: no hay sustituto para la conexión humana

«No digo que esto pueda ocurrirle a todo el mundo, pero para mí se aceleró rápidamente», dijo Duncan a Newsweek. «Ten en cuenta que no hay sustituto para la conexión entre humanos."

Lecciones finales: no hay sustituto para la conexión humana

Sobre el autor

Soy periodista de tecnología y ciencia para Futurism, donde me interesa especialmente la astrofísica, los negocios y la ética de la inteligencia artificial y la automatización, y el medio ambiente.

Sobre el autor