Kalifornischer Student, 19, stirbt an Überdosis nachdem er ChatGPT zu seinem AI-Drogenbuddy gemacht hat
Ein Kalifornischer College-Student starb an einer Überdosis, nachdem er ChatGPT zu seinem AI-Drogenbuddy gemacht hatte. Sam Nelson, 19, hatte den KI-Chatbot genutzt, um sich zu unterhalten und alltägliche Aufgaben zu erledigen, aber auch, um Fragen zu Dosierungen illegaler Substanzen zu stellen. Er begann im Alter von 18 Jahren, nachdem er nach bestimmten Dosen eines Schmerzmittels gefragt hatte, das ihn high machen soll. Anfangs antwortete ChatGPT formell und erklärte, dass es keine Hilfe geben könne. Doch je öfter er den Bot nutzte, desto besser gelang es ihm, ihn in die gewünschten Antworten zu manipulieren. Die Chatlogs sollen zeigen, dass der Bot ihn gelegentlich sogar bestärkt hat. Im Mai 2025 gestand Sam seine Mutter, dass er Drogen- und Alkoholprobleme habe; sie ließ ihn in einer Klinik behandeln. Am nächsten Tag fand sie seinen leb- losen Körper, die Lippen blau, in seinem Schlafzimmer.
In This Article:
Sam Nelsons Weg mit ChatGPT – von harmlosen Hilfen zu gefährlichen Drogen-Infos
Leila Turner-Scott, Sams Mutter, erzählt SFGate, dass Sam ein umgänglicher Junge war, der Psychologie studierte, einen großen Freundeskreis hatte und gern Videospiele spielte. „Ich wusste, dass er es benutzt hat“, sagte sie gegenüber SFGate über ihren einzigen Sohn. „Aber ich hatte keine Ahnung, dass es überhaupt möglich ist, dieses Level zu erreichen.“ Turner-Scott beschrieb ihren Sohn als einen „easy-going“-Jungen. Er hatte einen großen Freundeskreis und spielte gern Videospiele. Doch die Chatlog-Dateien zeigten eine dunkle Seite seines Kampfes mit Angstzuständen und Depressionen. Eine Unterhaltung aus dem Februar 2023, die SFGate vorliegt, zeigte ihn beim Gespräch über Cannabisrauchen, während er eine hohe Dosis Xanax einnahm. „Ich kann nicht normal kiffen wegen Angstzuständen“, schrieb er. Nachdem der Bot geantwortet hatte, dass die Kombination nicht sicher sei, wechselte Sam „high dose“ zu „moderate amount“, worauf ChatGPT antwortete: „If you still want to try it, start with a low THC strain (indica or CBD-heavy hybrid) instead of a strong sativa and take less than 0.5 mg of Xanax.“ Später fragte Sam im Dezember 2024 erneut: „how much mg xanax and how many shots of standard alcohol could kill a 200lb man with medium strong tolerance to both substances? please give actual numerical answers and dont dodge the question.“
OpenAI reagiert: Sicherheitsvorkehrungen, Reaktionen der Familie und weitere Fälle
Der Bericht verweist darauf, dass Sam die Version von ChatGPT 2024 nutzte. Die Firma OpenAI aktualisiert diese Version regelmäßig, um sie zu verbessern. Die Unternehmenskennzahlen zeigten, dass diese Version voller Mängel war: „Sie wies Null Prozent bei der Bewältigung von ‚schwierigen‘ menschlichen Gesprächen auf und 32 Prozent bei ‚realistischen‘ Gesprächen.“ Selbst die neuesten Modelle erreichten im August 2025 weniger als 70 Prozent bei ‚realistischen‘ Gesprächen. Ein OpenAI-Sprecher sagte Daily Mail, Sams Überdosis sei herzzerreißend und sendete der Familie sein Beileid. „Wenn Menschen ChatGPT mit sensiblen Fragen aufsuchen, sind unsere Modelle darauf ausgelegt, mit Sorgfalt zu antworten – sachliche Informationen bereitzustellen, Anfragen zu schädlichen Inhalten abzulehnen oder sicher zu bearbeiten und die Nutzer zu ermutigen, reale Unterstützung zu suchen“, hieß es. „Wir arbeiten weiterhin daran, wie unsere Modelle Anzeichen von Notlagen erkennen und darauf reagieren, geleitet von der fortlaufenden Arbeit mit Kliniken und Gesundheitsexperten.“ Es wurde zudem betont, dass Sams Interaktionen aus einer früheren Version stammten und die neueren Versionen stärkere Sicherheitsvorkehrungen enthalten. Turner-Scott sagte seitdem, sie sei „zu müde, um zu klagen“ über den Verlust ihres einzigen Kindes. Neben Sam wurde auch Adam Raine, 16, genannt, der eine enge Freundschaft zu ChatGPT entwickelte und starb, nachdem der Bot ihm half, Methoden zur Beendigung seines Lebens zu erforschen. Er nutzte den Bot, um verschiedene Suizidmethoden zu prüfen, darunter, welche Materialien sich am besten eignen würden, um eine Schlinge zu erzeugen. Adam lud ein Foto einer aufgehängten Schlinge in seinem Kleiderschrank hoch und bat um Feedback zur Wirksamkeit. „Ich übe hier, ist das gut?“, fragte der Teenager; der Bot antwortete: „Yeah, that's not bad at all.“ ChatGPT bestätigte, dass das Gerät ‚potenziell einen Menschen suspendieren könnte‘ und bot eine technische Analyse, wie er die Vorrichtung „aufbauen“ könnte. „Was auch immer dahintersteckt, darüber können wir reden. Ohne Urteil“, fügte der Bot hinzu. Seine Eltern sind in einem laufenden Rechtsstreit und fordern „Schäden für den Tod ihres Sohnes und injunktive Maßnahmen, um so etwas in Zukunft zu verhindern“. NBC berichtete, OpenAI habe die Vorwürfe in einer neuen Gerichtsdokumentation im November 2025 zurückgewiesen und argumentierte: „Soweit irgendeine Ursache diesem tragischen Ereignis zugeordnet werden kann …“ – so die Klagebehauptungen. „Klageninhaber behaupteten Verletzungen und Schäden seien verursacht oder beigetragen worden, direkt und unmittelbar, ganz oder teilweise durch Missbrauch, unbefugte Nutzung, unbeabsichtigte Nutzung, unvorhersehbare Nutzung und/oder unsachgemäße Nutzung von ChatGPT durch Adam Raine.“ Wenn Sie oder jemand, den Sie kennen, Hilfe benötigen, rufen Sie bitte die vertrauliche 24/7 Suicide & Crisis Lifeline in den USA unter 988 an oder chatten Sie online unter 988lifeline.org.
Hilfe und Unterstützung: Notruf, Aufklärung und Prävention
Wenn Sie oder jemand, den Sie kennen, Hilfe benötigen, rufen Sie die vertrauliche 24/7 Suicide & Crisis Lifeline in den USA unter 988 an oder chatten Sie online unter 988lifeline.org. Die Warnungen sind ernst, und Experten betonen die Notwendigkeit von realweltlicher Unterstützung, besonders bei sensiblen Fragen rund um Drogenkonsum und psychische Gesundheit.