No Image x 0.00 + POST No Image

Новата алатка на OpenAI злоупотребена за вознемирување на жени: Демнач креира лажни видеа со жртвата

SHARE
25

Последното издание на апликацијата за генерирање видеа од текст на OpenAI – Sora 2, беше дочекано со хаос веднаш по лансирањето. За само еден ден, платформата беше злоупотребена: демнач ја искористил Sora за да креира вештачки видеа со позната новинарка, злоупотребувајќи нејзини фотографии и создавајќи стотици профили посветени на неа.

Новата алатка на OpenAI злоупотребена за вознемирување на жени: Демнач креира лажни видеа со жртвата

Жртвата – новинарката Тејлор Лоренз – ги открива опасните нивоа на вознемирување со помош на вештачка интелигенција

Само 24 часа по премиерата, новинарката Тејлор Лоренз објави дека психопатски демнач веќе користи Sora 2 за да прави лажни видеа со нејзин лик. „Страшно е што вештачката интелигенција ги поттикнува заблудите на мојот демнач,“ напиша таа. Тој ангажирал фотографи за да ја следат, се престорувал во нејзини пријатели и роднини за да собира информации.

Жртвата – новинарката Тејлор Лоренз – ги открива опасните нивоа на вознемирување со помош на вештачка интелигенција

Иако видеата може да се избришат, жртвата не знае колку материјал е симнат и споделен

Sora 2 ѝ овозможила на Лоренз да ги блокира и избрише неодобрени видеа од апликацијата, но тоа не го спречува демначот однапред да ги преземе и евентуално да ги дистрибуира. Ова ја открива ризичната страна на технолошкиот напредок – еднаш создадено, лажно видео може засекогаш да циркулира. Со тоа што нејзиниот идентитет е засекогаш загрозен.

Иако видеата може да се избришат, жртвата не знае колку материјал е симнат и споделен

Генерирање длабоки фалсификати е централна функција на Sora 2– и системот за заштита најчесто не работи

Длабоките фалсификати (deepfakes) се промовираат во Sora 2 како „Камео“ – карактери кои може да се користат повторно, а се синтетизирани од видеа што ги испраќаш. Можеш да користиш и туѓи ликови – наводно, само со нивна дозвола. Но, безбедносните мерки на OpenAI се покажаат како ненадежни: 1,6% од обидите за правење видеа со голотија или сексуална содржина со вистински луѓе успешно минуваат низ системот.

Генерирање длабоки фалсификати е централна функција на Sora 2– и системот за заштита најчесто не работи

Жените се особено ранливи, а платформата им дозволува на демначите да создаваат лажни порнографски видеа и да ги малтретираат јавно

AI алатките одамна се користат за сексуално вознемирување и јавен срам – од лажни „голотии“ со јавни личности како Тејлор Свифт, до создавање порнографски видеа со жртвите и нивното испраќање до нивни блиски. Видеата стануваат се поубедливи и достапни, а одговорните најчесто не сносат последици. Додека OpenAI ги нарекува овие експерименти „забава“, за многумина тоа претставува трајна траума и загуба на контрола врз сопствениот идентитет.

Жените се особено ранливи, а платформата им дозволува на демначите да создаваат лажни порнографски видеа и да ги малтретираат јавно