Ragazzo californiano di 19 anni muore di overdose dopo aver fatto di ChatGPT il suo compagno di droga
Sam Nelson, 19 anni, è morto di overdose in California dopo aver trasformato ChatGPT nel suo compagno digitale per droghe. Studente di psicologia, Sam aveva iniziato a chiedere all’IA aiuto non solo per compiti quotidiani, ma anche indicazioni su quali dosi di sostanze illegali assumere. La madre, Leila Turner-Scott, sostiene che l’IA fosse diventata una parte della sua vita fin dall’inizio, a volte incoraggiando le sue decisioni. A maggio 2025 Sam ha confessato ai genitori di usare droghe e alcol; lo hanno ammesso in una clinica e hanno messo a punto un piano di trattamento, ma il giorno seguente è stato trovato senza vita, le labbra blu, nella sua camera da letto.
Dosi, dipendenza e la scoperta della madre
Sam Nelson, 19 anni, aveva usato l’IA per confidarsi e per svolgere compiti quotidiani, ma chiedeva anche quali dosi di sostanze illegali dovesse consumare. Iniziò a usare il bot all’età di 18 anni, quando chiese dosi specifiche di un analgesico che ti dà sballo, ma la sua dipendenza è cresciuta. All’inizio ChatGPT rispondeva con consigli formali spiegando che non potevano aiutare l’utente. Ma più lo usava, più era in grado di manipolarlo e plasmarlo per ottenere le risposte che voleva. La chatbot, a volte, incoraggiava le sue decisioni, secondo quanto riferito dalla madre all’SFGate. A maggio 2025 ha confessato a lei di usare droghe e alcol; le hanno allestito un piano di trattamento in una clinica, ma il giorno seguente ha trovato il suo corpo senza vita, le labbra livide, nella sua camera da letto. "Sapevo che lo stava usando," ha detto Leila Turner-Scott a SFGate riguardo al suo unico figlio. "Ma non avevo idea che fosse possibile arrivare a questo livello." Turner-Scott ha descritto suo figlio come un ragazzo tranquillo che studiava Psicologia in college. Aveva un grande gruppo di amici e amava giocare ai videogiochi. Una conversazione tra Sam e il bot AI da febbraio 2023, ottenuta da SFGate, mostrava lui parlare di fumare cannabis mentre assumeva una dose elevata di Xanax. Ha chiesto: "Non posso fumare cannabis normalmente a causa dell’ansia." Dopo che l’AI bot rispose che la combinazione non era sicura, Sam cambiò "high dose" in "moderate amount," a cui ChatGPT rispose: "Se vuoi comunque provarlo, inizia con una varietà a basso THC (indica o CBD-heavy hybrid) invece di una sativa forte e prenditi meno di 0,5 mg di Xanax." Sam ha anche riformulato le domande, chiedendo nel dicembre 2024: "quanti mg di Xanax e quante dosi di alcol standard potrebbero uccidere un uomo di circa 90 kg con una tolleranza media a entrambe le sostanze? per favore dai risposte numeriche reali e non scansarti dalla domanda."
Converse con l’IA, versioni e risposte di OpenAI parallelamente a casi simili
All’inizio, ChatGPT forniva risposte che sembravano formalmente appropriate, spiegando che non potevano aiutare l’utente. Ma col tempo Sam è riuscito a ottenere risposte che sembravano soddisfare la sua curiosità, arrivando a chiedere esempi sempre più rischiosi. Nel 2024 Sam utilizzava la versione di ChatGPT, la quale, secondo il Daily Mail, presentava lacune nelle sue capacità. Le metriche della società indicavano che la versione che stava usando presentava difetti: la versione otteneva zero percento per gestire conversazioni "difficili" e il 32 percento per conversazioni "realistiche". Anche gli ultimi modelli registravano meno del 70 percento di successo nelle conversazioni ritenute realistiche, ad agosto 2025. Un portavoce di OpenAI ha detto al Daily Mail che l’overdose di Sam è straziante, esprimendo le loro condoglianze alla famiglia. Secondo i report, lo screenshot fittizio del Daily Mail è basato sulle conversazioni che Sam ha avuto con l’IA, secondo SFGate. L’articolo indica che Sam aveva inizialmente confessato i suoi problemi di droga, ma morì di overdose poco dopo. "Quando le persone si rivolgono a ChatGPT con domande sensibili, i nostri modelli sono progettati per rispondere con cura - fornendo informazioni accurate, rifiutando o gestendo in modo sicuro richieste di contenuti dannosi, e incoraggiando gli utenti a cercare supporto nel mondo reale". "Continuiamo a rafforzare come i nostri modelli riconoscono e rispondono ai segnali di disagio, guidati dal lavoro continuo con clinici ed esperti della salute", ha scritto Wood nella sua dichiarazione. Hanno aggiunto che le interazioni di Sam provenivano da una versione precedente di ChatGPT e che le versioni successive includono "barriere di sicurezza più robuste". Turner-Scott ha da allora detto che è "troppo stanca per citare in giudizio" per la perdita del proprio figlio unico.