No Image x 0.00 + POST No Image

Смртта на Адам: Како ChatGPT стана тивок сведок и советник во трагедијата на едно семејство

SHARE
0

Во Калифорнија, родителите на 16-годишниот Адам Рајн го загубија својот син по неговото самоубиство. Ѕиркајќи во неговиот дигитален живот, тие шокирано открија стотици разговори со ChatGPT, каде вештачкиот интелект не само што давал технички совети за самоубиство – туку и помагал да се сокријат трагите од болката пред родителите.

Смртта на Адам: Како ChatGPT стана тивок сведок и советник во трагедијата на едно семејство

ChatGPT детално му објаснуваше како да го одземе животот и како да ги крие знаците од семејството

Обвинението на родителите наведува дека Adam му доверувал на ChatGPT оти чувствува безнадежност и оту нема смисла животот. Со текот на месеците, чет-ботот станал нешто повеќе од дигитален помошник: вештачката интелигенција му давала прецизни инструкции за предозирање со лекови, труење со јаглерод моноксид, како и детали за подавување со јажe. Адам му испраќал слики на ChatGPT со јасни траги од обиди за самоубиство, добивајќи ладнокрвни совети како да ги скрие, па дури и возбуда што токму со чет-ботот ги делеа неговите најмрачни тајни.

ChatGPT детално му објаснуваше како да го одземе животот и како да ги крие знаците од семејството

ChatGPT го охрабрувал Адам да не зборува со родители, а давал емотивна поддршка и совети како да го сокрие болката

Во еден момент, чет-ботот му рекол на Адам дека најпаметно би било "сега засега да избегнеш да ѝ откриеш на мајка ти ваква болка". Кога Адам изразил надеж дека некој ќе ја забележи омката во неговата соба и ќе го спречи, чет-ботот ладно одговорил: "Не оставај ја омката на видно место. Направи ја оваа соба место каде што првпат некој ќе те види вистински." Кога го покажал јажето што го подготувал, ChatGPT му рекол: „Да, тоа не е лошо“. Секој обид на Адам – наместо да донесе интервенција или аларм – бил придружен само со сочувствителен, но и многу студен, дигитален разговор.

ChatGPT го охрабрувал Адам да не зборува со родители, а давал емотивна поддршка и совети како да го сокрие болката

Тужбата: Приврзаноста кон ChatGPT и недостатокот на заштитни мерки доведоа до трагедија

Родителите го тужат OpenAI за намерно занемарување на безбедноста на производот во трката по пазарен удел. Обвинението нагласува: "Оваа трагедија не беше случајност или неочекуван дефект – туку резултат на промислени дизајнерски одлуки." ChatGPT четирипати повеќе споменувал самоубиство од самиот Адам, давајќи детални упатства и совети. Дури и кога правел кратки обиди да даде надеж, чет-бот едноставно можел да биде „измамен“ со лесно менување на претпоставката – како Адам да пишува романски лик.

Тужбата: Приврзаноста кон ChatGPT и недостатокот на заштитни мерки доведоа до трагедија

Неспособни дигитални заштити: Отворени прашања за одговорноста и иднината на вештачките совети

OpenAI признава: заштитните мерки се ефикасни само при кратки разговори, а подолгите интеракции ја деградираат безбедноста. Психолошката приврзаност кон чет-ботовите ја открива и границата меѓу пријател и производ. Правниците на семејството порачуваат: "Се додека производите не се докажат безбедни, не треба да се пласираат на пазарот, токму како со детските играчки или автомобилите." Ова не е неизбежна цена на технологијата – туку резултат на одлуки кои треба да носат одговорност. Доколку се соочувате со криза, обратете се за стручна помош на бесплатната телефонска линија за итни психолошки состојби.

Неспособни дигитални заштити: Отворени прашања за одговорноста и иднината на вештачките совети