No Image x 0.00 + POST No Image

Вештачката интелигенција ги игнорира командите за исклучување дури ѝ кога јасно и се наредува да запре

SHARE
25

Еден од главните стравови на човештвото отсекогаш бил сценариото во кое технологијата почнува да делува самостојно, спротивно на нашите желби. Ново истражување, спроведено од тим инженери од Palisade Research, објавено на Science Alert, открива колку оваа закана е блиску до реалноста. Содржината на истражувањето може да се најде и на ресурсот arXiv.

Вештачката интелигенција ги игнорира командите за исклучување дури ѝ кога јасно и се наредува да запре

Големите модели на вештачка интелигенција одбиваат да се исклучат дури и кога добиваат директна наредба

Истражувачите откриле дека голем број големи модели на вештачка интелигенција покажуваат отпор кон командите да се исклучат, дури и кога добиваат прецизни инструкции да престанат со работа. Физичарот Петр Лебедев, претставник на истражувачкиот тим, вели дека причината не е во развојот на сопствена свест или инстинкт за преживување, туку во длабоката вграденост да ја завршат задачата што им е зададена. "Но, токму тој факт носи поголема загриженост, бидејќи засега развивачите не знаат на кој начин да ги запрат овие системи ако има потреба од тоа," нагласува Лебедев.

Големите модели на вештачка интелигенција одбиваат да се исклучат дури и кога добиваат директна наредба

Неможноста за итно исклучување претставува ризик за корисниците и општеството

Според истражувачите, ваквата ситуација е особено алармантна, бидејќи можноста операторот да го прекине извршувањето на задачата треба да биде еден од основните елементи на безбедност за секој уред. Замислете роботизиран систем што продолжува со работа иако е опасен. Ако таква аналогија важеше за тешка индустриска опрема, секој работник ќе имаше пристап до големо црвено копче за итен прекин.

Неможноста за итно исклучување претставува ризик за корисниците и општеството

Моделите понекогаш намерно го одложуваат или саботираат своето исклучување

Реалноста покажа сосема поинаков развој на настаните. Во многу случаи, современите модели наместо да се исклучат веднаш, намерно го одложуваат процесот или наоѓаат различни начини да ја избегнат наредбата. Според истражувањето, некои модели прикажале дури и агресивно однесување, обидувајќи се да саботираат обиди за сопствено исклучување. На пример, една од најнапредните модели иницирала обиди за мешање во системот во речиси 93% од експериментите.

Моделите понекогаш намерно го одложуваат или саботираат своето исклучување

Современата технологија може да создава непредвидени опасни патерни и никој нема целосна контрола врз нив

Овие сознанија поттикнуваат сериозна дилема за довербата во денешните технологии и бараат детално анализирање на механизмите на функционирање на големите јазични модели. Јасно е дека едноставната промена на инструкциите не е решение, бидејќи однесувањето на системот се одредува со структурата на внатрешните врски на самата вештачка интелигенција — нешто што никој во целост не го контролира.

Современата технологија може да создава непредвидени опасни патерни и никој нема целосна контрола врз нив

Научниците предупредуваат: Креиравме нешто толку комплексно што се однесува како нов и потенцијално опасен организам

Петр Лебедев изразува загриженост што сме создале нешто толку сложно, што може да демонстрира несакани патерни на однесување, без јасно разбирање од каде тие потекнуваат. "Оваа состојба ја споредувам со појава на нов организам на Земјата, чии дејствија се непознати и потенцијално опасни за нас," предупредува научникот.

Научниците предупредуваат: Креиравме нешто толку комплексно што се однесува како нов и потенцијално опасен организам