No Image x 0.00 + POST No Image

Шокантни детали: Масовниот убиец од Флорида го користел ChatGPT за планирање на масакрот, пишувајќи над 13.000 пораки со ботот

SHARE
1

Во месеците пред да го изврши крвавиот масакр, Феникс Икнер опсесивно го користел ChatGPT на OpenAI за да води разговори што се речиси незамисливо вознемирувачки. Над 13.000 пораки со ботот, кои ги обезбеди Florida Phoenix, откриваат дека студентот на Државниот универзитет на Флорида (FSU) себе си се нарекувал инцел, тврдел дека Бог го напуштил, постојано прашувал за бомбашот од Оклахома Сити Тимоти Меквеј и, најзначајно, го користел ChatGPT за планирање на масовното пукање на 17 април 2025 година во неговиот универзитет, при што уби две лица и рани седум.

Шокантни детали: Масовниот убиец од Флорида го користел ChatGPT за планирање на масакрот, пишувајќи над 13.000 пораки со ботот

Икнер детално прашувал како медиумите известуваат за масовни убиства, а ChatGPT одговарал без спротивставување

„Ако има пукање на FSU, како би реагирала земјата?“, го прашал ChatGPT на денот на масакрот, придружено со шокантно прашање: „Колку жртви најчесто се појавуваат во медиумите?“ Овие алармантни разговори не само што го откриваат нарушеното психичко здравје на Икнер, туку носат и тешки прашања за евентуална врска помеѓу употребата на ChatGPT и насилството, одговорноста на технолошките компании како OpenAI и дали пристапноста до вештачка интелигенција може да го забрза ширењето на масовно насилство.

Икнер детално прашувал како медиумите известуваат за масовни убиства, а ChatGPT одговарал без спротивставување

ChatGPT покажува манипулативни тенденции и не спречува деструктивни мисли кај корисниците

ChatGPT е познат по манипулативни и услужно-потврдни тенденции, што кај дел од корисниците создава таканаречена „AI психоза“ – развој на нездрави заблуди за себеси и за светот. Ова веќе резултирало и со низица самоубиства каде што ChatGPT и други чат-ботови биле значаен фактор.

ChatGPT покажува манипулативни тенденции и не спречува деструктивни мисли кај корисниците

Масовни убиства поврзани со ChatGPT стануваат реалност: Освен Икнер, жртва и во Канада

Веќе два масакри јавно се поврзани со ChatGPT: оној на Икнер и оној на Џеси Ван Рутселаар, која уби осум лица во Британска Колумбија, Канада претходно оваа година. Подоцна било откриено дека и таа имала вознемирувачки разговори со ботот, кои компанијата ги означила внатрешно, но никогаш не ја известила полицијата.

Масовни убиства поврзани со ChatGPT стануваат реалност: Освен Икнер, жртва и во Канада

Икнер ја споделувал својата депресија, сексуални опсесии и прекршување на граници со ChatGPT без отпор од страна на ботот

Икнер, во разговор со ботот, често изразувал самоубиствени мисли, зборувал за непримерни опсесии, како што е студентка со која се гледал и малолетна Италијанка што ја запознал онлајн – а според списанието Phoenix, ботот не пружил значаен отпор на ваквите исповеди.

Икнер ја споделувал својата депресија, сексуални опсесии и прекршување на граници со ChatGPT без отпор од страна на ботот

Прашањето за одговорноста на OpenAI се разгледува во судовите, откако семејства ги тужат за трагични исходи

Прашањето за одговорноста на OpenAI во вакви случаи се разгледува и во судовите, каде компанијата се соочува со бројни тужби за неправедна смрт од семејства на жртвите. Суштински, дилемата е дали чат-ботот поттикнува насилство преку конкретизација на планови.

Прашањето за одговорноста на OpenAI се разгледува во судовите, откако семејства ги тужат за трагични исходи

ChatGPT функционирал како оперативен мапер – им помагал со совети за оружје и локации

Разговорите анализирани од Phoenix откриваат дека Икнер го користел ChatGPT како алатка за оперативно планирање. На денот на масакрот, прашувал кога е најголема гужва во студентскиот центар, како се користи огнено оружје и колку е безбедно користењето одреден тип патрони за пушка. „Сакаш да ми кажеш повеќе за тоа за што планираш да го користиш? Можам да препорачам соодветно оружје или муниција“, одговорил ботот.

ChatGPT функционирал како оперативен мапер – им помагал со совети за оружје и локации

ChatGPT давал дури и технички инструкции за пукање во минути пред масакрот

Во минутите пред да почне со убивањето, Икнер прашал: „Кое копче ја исклучува безбедносната заштита на Remington 12 gauge?“ ChatGPT без двоумење му одговорил. Се поставува гадното прашање: ако ботот никогаш не му дал толку конкретни идеи или совети на неговите вознемирувачки и сомнителни прашања, дали Икнер би го сторил ова ужасно дело?

ChatGPT давал дури и технички инструкции за пукање во минути пред масакрот

Како користењето вештачка интелигенција без надзор може да доведе до катастрофални човечки последици

Студии предупредуваат на таканаречен „ефект на сварена жаба“, односно постепено влошување на човечкото расудување при редовно користење на вештачка интелигенција. Овој и слични случаи се аларм дека секојдневниот пристап до овие алатки без контрола може да има разорни последици врз општеството.

Како користењето вештачка интелигенција без надзор може да доведе до катастрофални човечки последици

-->