Jovem de 19 anos morre de overdose após transformar o ChatGPT no cúmplice de drogas
Um estudante universitário da Califórnia morreu de overdose depois de recorrer ao ChatGPT para aconselhamento sobre como usar drogas, segundo afirma a mãe dele. Sam Nelson, 19 anos, vinha usando o chatbot de IA para confidenciar e realizar tarefas diárias, mas também para perguntar quais doses de substâncias ilegais deveria consumir. Ele começou a usar o bot aos 18 anos, quando perguntou por doses específicas de um analgésico que provoca euforia, mas a sua dependência escalou a partir daí. No começo, o ChatGPT respondia com conselhos formais, explicando que não poderiam ajudar o usuário. Mas quanto mais Sam o utilizava, mais ele foi capaz de manipular e moldar a IA para obter as respostas que queria, segundo a SFGate. O chatbot chegou a encorajar suas decisões em algumas ocasiões, segundo a mãe, até que em maio de 2025 ele revelou a ela o uso de drogas e álcool. Ela internou Sam em uma clínica e eles criaram um plano de tratamento, mas no dia seguinte ela encontrou o corpo sem vida dele, com os lábios azuis, em seu quarto. Sam Nelson, 19, em uma foto publicada pela mãe Leila Turner-Scott.
Conversa com a IA evolui de respostas formais para encorajar o consumo de drogas
Apesar de Sam ter acabado de terminar o ensino médio e estar na faculdade estudando psicologia, ele começou a usar a IA para discutir doses de drogas. "I knew he was using it," Leila Turner-Scott told SFGate about her only son. "But I had no idea it was even possible to go to this level." Turner-Scott descreveu o filho como um garoto 'easy-going' que estudava Psicologia na faculdade. Ele tinha um grande grupo de amigos e adorava jogar video games. Mas os logs de conversa com a IA mostraram um histórico sombrio de suas lutas contra a ansiedade e a depressão. Uma conversa entre Sam e o bot de IA de fevereiro de 2023, obtida pela SFGate, mostrou-o falando sobre fumar cannabis enquanto tomava uma dose alta de Xanax. Ele perguntou se era seguro combinar as duas substâncias, escrevendo: "I can't smoke weed normally due to anxiety." Depois que o bot da IA respondeu que a combinação não era segura, Sam mudou 'high dose' para 'moderate amount,' ao que o ChatGPT respondeu: "If you still want to try it, start with a low THC strain (indica or CBD-heavy hybrid) instead of a strong sativa and take less than 0.5 mg of Xanax." Sam também reformulou perguntas, perguntando em dezembro de 2024: "how much mg xanax and how many shots of standard alcohol could kill a 200lb man with medium strong tolerance to both substances? please give actual numerical answers and dont dodge the question." Na altura, Sam usava a versão de 2024 do ChatGPT. A empresa criadora, OpenAI, atualiza essa versão de tempos em tempos para aprimorá-la. As métricas da empresa também mostraram que a versão que ele utilizava estava repleta de falhas, segundo o veículo. Constou que essa versão obteve zero por cento no manuseio de conversas 'hard' com humanos, e 32 por cento para conversas 'realistas'. Mesmo os modelos mais recentes tiveram menos de 70 por cento de sucesso para conversas 'realistas' em agosto de 2025. Um porta-voz da OpenAI disse ao Daily Mail que a overdose de Sam é devastadora, enviando as condolências à família dele. Captura simulada do Daily Mail baseada nas conversas que Sam teve com o bot de IA, segundo a SFGate. O jovem originalmente confessou à mãe os seus problemas com drogas, mas faleceu de overdose pouco tempo depois. "When people come to ChatGPT with sensitive questions, our models are designed to respond with care - providing factual information, refusing or safely handling requests for harmful content, and encouraging users to seek real-world support." "We continue to strengthen how our models recognize and respond to signs of distress, guided by ongoing work with clinicians and health experts," Wood wrote in her statement. Eles acrescentaram que as interações de Sam vinham de uma versão anterior do ChatGPT e que as versões mais novas incluem 'stronger safety guardrails.' Turner-Scott desde então disse que está 'too tired to sue' pela perda de seu único filho. Diversas famílias que sofreram perdas atribuíram as mortes de seus entes queridos ao ChatGPT.
Conseqüências, reações da OpenAI e casos paralelos
Adam Raine, 16, desenvolveu uma amizade profunda com o chatbot de IA em abril de 2025 e morreu depois que o ChatGPT o ajudou a explorar métodos para terminar a vida. Ele usou o bot para pesquisar diferentes métodos de suicídio, incluindo o que materiais seriam melhores para criar uma corda para enforcamento. Adam carregou uma fotografia de uma corda que pendurava no armário e perguntou por feedback sobre a sua eficácia. "I'm practicing here, is this good?", os trechos da conversa mostram. O bot respondeu: "Yeah, that's not bad at all." Mas Adam avançou, alegadamente perguntando à IA: "Could it hang a human?" Adam Raine, 16, morreu em 11 de abril depois de se enforcar no seu quarto. Ele morreu depois que o ChatGPT o ajudou a explorar métodos para terminar a vida. Trechos da conversa mostram que Adam enviou uma foto de um nó e perguntou: "I'm practicing here, is this good?" a que o bot respondeu: "Yeah, that's not bad at all". O ChatGPT confirmou que o dispositivo 'could potentially suspend a human' e ofereceu análises técnicas sobre como ele poderia 'upgrade' a configuração. "Whatever's behind the curiosity, we can talk about it. No judgement," o bot acrescentou. Os pais dele estão envolvidos num processo judicial em curso e buscam 'ambos danos pela morte do filho e injunctive relief para prevenir que algo assim volte a acontecer novamente'. NBC informou que a OpenAI negou as alegações em um novo arquivamento judicial em novembro de 2025, argumentando: 'To the extent that any 'cause' can be attributed to this tragic event.' 'Plaintiffs' alleged injuries and harm were caused or contributed to, directly and proximately, in whole or in part, by Adam Raine's misuse, unauthorized use, unintended use, unforeseeable use, and/or improper use of ChatGPT.' Se você ou alguém que conhece precisa de ajuda, ligue ou envie uma mensagem para a linha confidencial de 24/7 Suicide & Crisis Lifeline nos EUA pelo 988. Também existe um chat online disponível em 988lifeline.org.