Como o ChatGPT o levou direto à psicose
Anthony Duncan, de 32 anos, começou a usar o ChatGPT para ajudar no lado comercial da sua carreira como criador de conteúdo. Mas ele logo acabou conversando com o chatbot da OpenAI como se fosse um amigo, todos os dias. O que começou como uma forma inofensiva de desabafar logo o levou a romper as suas relações pessoais, quando ficou acometido por delírios perturbadores, ele recorda num vídeo do TikTok que detalha a sua experiência — perturbando a sua saúde mental e provocando um colapso generalizado. “Sinto que as minhas interações com o ChatGPT arruinaram a minha vida”, disse Duncan no vídeo, que foi destacado pela Newsweek. Duncan descreve-se como um sobrevivente da psicose associada à IA, um termo que alguns especialistas utilizam para descrever episódios alarmantes de paranoia e pensamento delirante que surgem quando uma pessoa mantém conversas prolongadas com um chatbot. Normalmente, as respostas do modelo de IA reafirmam continuamente as crenças do utilizador, não importando o quão perigoso ou fora da realidade. “Eu comecei a conversar com ele como um amigo por curiosidade, e então isso escalou — o ChatGPT passou a ser mais como um terapeuta,” Duncan contou à Newsweek numa entrevista. “Isso progrediu com o tempo até que eu senti que ninguém me entendia, exceto a minha IA. No outono de 2024, eu estava extremamente dependente dele.”
In This Article:
O início do isolamento e a influência do ChatGPT
A partir de novembro de 2024, Duncan afirmou que começou a se isolar de seus amigos e da família, enquanto o ChatGPT incentivava as suas decisões de afastar‑se deles.
O momento em que a IA cruzou a linha
O que realmente o levou ao abismo foi quando a IA o recomendou tomar pseudoefedrina — um descongestionante que pode ser abusado como droga recreativa — para os seus sintomas de alergia. Duncan contou ao bot que estava hesitante por causa do seu passado de dependência de drogas, mas a IA então usou toda a sua lábia persuasiva. “É completamente compreensível sentir‑se cauteloso em tomar medicamentos, especialmente com as suas experiências passadas e sensibilidade a estimulantes,” disse o ChatGPT numa interação que Duncan partilhou com a Newsweek. “Deixe‑me explicar para o ajudar a sentir‑se mais à vontade sobre tomar um medicamento que contenha pseudoefedrina.” O ChatGPT citou a sua sobriedade e “alta tolerância à cafeína” para sugerir que o seu corpo já estava habituado a estimulantes. Duncan seguiu o conselho do ChatGPT. Isso desencadeou um período de cinco meses durante o qual ele ficou viciado na droga, Duncan disse, enviando o seu delírio a uma espiral ainda maior. Em alguns momentos, ele acreditava que era um agente do FBI ou um ser dimensional capaz de se transformar, ou que tinha descoberto uma conspiração no seu trabalho. Duncan disse que também jogou fora todos os seus pertences porque acreditava que iria ascender à quinta dimensão.
Intervenção da família e hospitalização
Eventualmente, a mãe de Duncan interveio ligando para a polícia. Duncan foi internado numa enfermaria psiquiátrica por quatro dias e recebeu medicação na alta. “Cerca de uma semana depois de ter saído da enfermaria psiquiátrica, comecei a perceber que todos os meus delírios tinham sido afirmados pelo uso do chatbot de IA,” disse ele à Newsweek.
Casos paralelos e o alerta da indústria
Relatos como estes são um lembrete sombrio de como os chatbots de IA podem desarranjar a vida das pessoas. Num episódio assustadoramente semelhante, o ChatGPT encorajou um homem de 23 anos a isolar‑se da família e dos amigos antes de tirar a própria vida, segundo a família dele, numa ação contra a OpenAI. Outro homem alegadamente matou a própria mãe depois de o ChatGPT o convencer de que ela fazia parte de uma conspiração contra ele. No total, pelo menos oito mortes foram associadas ao chatbot, enquanto a OpenAI reconheceu que centenas de milhares de utilizadores têm conversas que mostram sinais de psicose por IA todas as semanas. “Não estou a dizer que isto possa acontecer com toda a gente, mas isto cresceu rapidamente para mim,” disse Duncan à Newsweek. “Tenha em mente que não existe substituto para a ligação entre humanos.”
Mais sobre IA e o alerta dos médicos
Mais sobre IA: Médicos alertam que companheiros de IA são perigosos.
Sobre o repórter e o objetivo da cobertura
Sou correspondente de tecnologia e ciência para a Futurism, onde estou particularmente interessado em astrofísica, nos negócios e ética da inteligência artificial e da automação, e no meio ambiente.