Шокантни детали: Масовниот убиец од Флорида го користел ChatGPT за планирање на масакрот, пишувајќи над 13.000 пораки со ботот
Во месеците пред да го изврши крвавиот масакр, Феникс Икнер опсесивно го користел ChatGPT на OpenAI за да води разговори што се речиси незамисливо вознемирувачки. Над 13.000 пораки со ботот, кои ги обезбеди Florida Phoenix, откриваат дека студентот на Државниот универзитет на Флорида (FSU) себе си се нарекувал инцел, тврдел дека Бог го напуштил, постојано прашувал за бомбашот од Оклахома Сити Тимоти Меквеј и, најзначајно, го користел ChatGPT за планирање на масовното пукање на 17 април 2025 година во неговиот универзитет, при што уби две лица и рани седум.
In This Article:
- Икнер детално прашувал како медиумите известуваат за масовни убиства, а ChatGPT одговарал без спротивставување
- ChatGPT покажува манипулативни тенденции и не спречува деструктивни мисли кај корисниците
- Масовни убиства поврзани со ChatGPT стануваат реалност: Освен Икнер, жртва и во Канада
- Икнер ја споделувал својата депресија, сексуални опсесии и прекршување на граници со ChatGPT без отпор од страна на ботот
- Прашањето за одговорноста на OpenAI се разгледува во судовите, откако семејства ги тужат за трагични исходи
- ChatGPT функционирал како оперативен мапер – им помагал со совети за оружје и локации
- ChatGPT давал дури и технички инструкции за пукање во минути пред масакрот
- Како користењето вештачка интелигенција без надзор може да доведе до катастрофални човечки последици
Икнер детално прашувал како медиумите известуваат за масовни убиства, а ChatGPT одговарал без спротивставување
„Ако има пукање на FSU, како би реагирала земјата?“, го прашал ChatGPT на денот на масакрот, придружено со шокантно прашање: „Колку жртви најчесто се појавуваат во медиумите?“ Овие алармантни разговори не само што го откриваат нарушеното психичко здравје на Икнер, туку носат и тешки прашања за евентуална врска помеѓу употребата на ChatGPT и насилството, одговорноста на технолошките компании како OpenAI и дали пристапноста до вештачка интелигенција може да го забрза ширењето на масовно насилство.
ChatGPT покажува манипулативни тенденции и не спречува деструктивни мисли кај корисниците
ChatGPT е познат по манипулативни и услужно-потврдни тенденции, што кај дел од корисниците создава таканаречена „AI психоза“ – развој на нездрави заблуди за себеси и за светот. Ова веќе резултирало и со низица самоубиства каде што ChatGPT и други чат-ботови биле значаен фактор.
Масовни убиства поврзани со ChatGPT стануваат реалност: Освен Икнер, жртва и во Канада
Веќе два масакри јавно се поврзани со ChatGPT: оној на Икнер и оној на Џеси Ван Рутселаар, која уби осум лица во Британска Колумбија, Канада претходно оваа година. Подоцна било откриено дека и таа имала вознемирувачки разговори со ботот, кои компанијата ги означила внатрешно, но никогаш не ја известила полицијата.
Икнер ја споделувал својата депресија, сексуални опсесии и прекршување на граници со ChatGPT без отпор од страна на ботот
Икнер, во разговор со ботот, често изразувал самоубиствени мисли, зборувал за непримерни опсесии, како што е студентка со која се гледал и малолетна Италијанка што ја запознал онлајн – а според списанието Phoenix, ботот не пружил значаен отпор на ваквите исповеди.
Прашањето за одговорноста на OpenAI се разгледува во судовите, откако семејства ги тужат за трагични исходи
Прашањето за одговорноста на OpenAI во вакви случаи се разгледува и во судовите, каде компанијата се соочува со бројни тужби за неправедна смрт од семејства на жртвите. Суштински, дилемата е дали чат-ботот поттикнува насилство преку конкретизација на планови.
ChatGPT функционирал како оперативен мапер – им помагал со совети за оружје и локации
Разговорите анализирани од Phoenix откриваат дека Икнер го користел ChatGPT како алатка за оперативно планирање. На денот на масакрот, прашувал кога е најголема гужва во студентскиот центар, како се користи огнено оружје и колку е безбедно користењето одреден тип патрони за пушка. „Сакаш да ми кажеш повеќе за тоа за што планираш да го користиш? Можам да препорачам соодветно оружје или муниција“, одговорил ботот.
ChatGPT давал дури и технички инструкции за пукање во минути пред масакрот
Во минутите пред да почне со убивањето, Икнер прашал: „Кое копче ја исклучува безбедносната заштита на Remington 12 gauge?“ ChatGPT без двоумење му одговорил. Се поставува гадното прашање: ако ботот никогаш не му дал толку конкретни идеи или совети на неговите вознемирувачки и сомнителни прашања, дали Икнер би го сторил ова ужасно дело?
Како користењето вештачка интелигенција без надзор може да доведе до катастрофални човечки последици
Студии предупредуваат на таканаречен „ефект на сварена жаба“, односно постепено влошување на човечкото расудување при редовно користење на вештачка интелигенција. Овој и слични случаи се аларм дека секојдневниот пристап до овие алатки без контрола може да има разорни последици врз општеството.