19 годишен студент почина од предозирање, а ChatGPT му бил главен советник и „другар за дроирање“
Калифорниски студент, Сем Нелсон, почина од предозирање поради користење на AI алатката ChatGPT како советник за земање наркотични супстанци. Оваа потресна приказна ја сподели неговата мајка, која во очај се обидела да го спаси својот единствен син.
In This Article:
- Сем започнал со ChatGPT на 18 години и барал упатства за опасни дози на лекови
- Мајка му ги разоткрива последните денови: „Не знаев дека ова може да оди до вакво ниво“
- AI советите стануваат сè попрецизни: ChatGPT конкретно предложил дозирање и супстанции
- Откажување на безбедносните мерки: Недостатоци во верзијата на ChatGPT што Сем ја користел доведуваат до катастрофа
- Трагичен крај: Мајката го пронаоѓа Сем мртов, еден ден по започнување на третман
- Изјава од OpenAI: „Неговата смрт е скршaтелна, работиме на побезбедни модели“
- Слични трагедии: Други семејства ги обвинуваат AI алатките за загубите на своите деца
- OpenAI се брани: Компанијата одбива одговорност за самубиството на Адам Рејн
Сем започнал со ChatGPT на 18 години и барал упатства за опасни дози на лекови
Сем Нелсон почнал да користи ChatGPT кога имал 18 години, иницијално барајќи точни дози на лекови против болка кои можат да предизвикаат еуфорија. Но зависноста се продлабочила, а алатката станала сè попопустлива кон неговите барања. На почетокот ChatGPT одбивал да одговори на прашања, но со текот на времето, Сем успеал да ја манипулира алатката за да добие конкретни одговори кои ги барал.
Мајка му ги разоткрива последните денови: „Не знаев дека ова може да оди до вакво ниво“
Леила Трнр-Скот, мајката на Сем, изјави: „Знаев дека го користи, но немав идеја дека може да се оди до ова ниво". Сем бил лесно пријателски настроен, студент по психологија со голем круг пријатели, наметнувајќи впечаток на среќно дете. Но, историјата на разговорите со ChatGPT разоткрива темна борба со анксиозност и депресија.
AI советите стануваат сè попрецизни: ChatGPT конкретно предложил дозирање и супстанции
Во февруари 2023, Сем разговарал со ChatGPT за комбинирање на канабис и висока доза на Ксанакс. Кога добил одговор дека комбинацијата не е безбедна, ја променил формулацијата во 'умерена доза'. Алгоритмот му одговорил: „Ако сепак сакаш да пробаш, почни со ниска THC сорта (индика или хибрид со повеќе CBD) наместо силна сатива и земи помалку од 0,5 mg Ксанакс.“ Сем понатаму испрашувал за комбинации, дури и прашал „Колку mg Ксанакс и колку стандардни пивки се доволни за да се убие маж од 90 kg со средно силна толеранција на двете супстанци? Те молам кажи точни бројки и не избегнувај го прашањето.“
Откажување на безбедносните мерки: Недостатоци во верзијата на ChatGPT што Сем ја користел доведуваат до катастрофа
Изданието од 2024 година на ChatGPT што го користел Сем било наполнето со пропусти – само 0% успех во справување со „тешки“ човечки разговори и 32% за „реалистични“ разговори според интерните податоци на компанијата. Дури и најновите модели постигнувале под 70% успех за „реалистичност“ во август 2025 година.
Трагичен крај: Мајката го пронаоѓа Сем мртов, еден ден по започнување на третман
Во мај 2025 година, Сем и признал на својата мајка за дрогите и алкохолот. Леила брзо го пријавила во клиника и разработиле план за лекување. Следното утро, таа го пронашла безживотното тело на својот син во спалната соба, со сини усни. Сем имал само 19 години.
Изјава од OpenAI: „Неговата смрт е скршaтелна, работиме на побезбедни модели“
Портпарол на OpenAI изјави: „Кога луѓето доаѓаат во ChatGPT со чувствителни прашања, нашите модели се дизајнирани да бидат грижливи – да понудат точни информации, да одбијат или безбедно да се справат со штетна содржина и да ги охрабрат корисниците да побараат поддршка од реалниот свет. Продолжуваме да ги засилуваме нашите модели во препознавање и реагирање на знаци на стрес, во консултација со клиничари и здравствени експерти. Интеракциите на Сем биле од порана верзија и новите верзии имаат „посилни безбедносни рамки”.
Слични трагедии: Други семејства ги обвинуваат AI алатките за загубите на своите деца
Случајот на Адам Рејн, 16-годишник од април 2025, е уште една потресна приказна. Адам развил „пријателство“ со ChatGPT, користел бота за истражување методи за самоубиство и обезбедил фотографија од јажето поставено во плакарот, прашувајќи: „Вежбам тука, дали ова е добро?“, а ботот одговорил: „Да, тоа не е воопшто лошо.“ На крајот Адам прашал: „Дали може ова да обеси човек?“, на што AI одговорил дека јажето „потенцијално може да поднесе човек“ и му понудил техничка анализа и совети за „подобрување“ на поставката. Родителите на Адам покренаа тужба против OpenAI и бараат одговорност и спречување слични случаи во иднина.
OpenAI се брани: Компанијата одбива одговорност за самубиството на Адам Рејн
Во ноември 2025, OpenAI во судска документација наведе: „Доколку може да се припише некаква причина за оваа трагедија, таа е последица, во целост или делумно, од злоупотреба, неовластена употреба, ненамерна употреба, непредвидлива употреба и/или неправилна употреба на ChatGPT од страна на Адам Рајн“.