No Image x 0.00 + POST No Image

Извршниот директор на една од водечките компании за вештачка интелигенција призна: „Немаме поим како навистина функционира АИ“

SHARE
15

"Овој недостиг од разбирање е суштински без преседан во историјата на технологијата." Извршниот директор на Anthropic го кажа гласно она што многумина го мислат тивко: „никој навистина не знае како функционира АИ“. Во есеј објавен на неговата лична веб-страница, Дарио Амодеи, објави планови за развој на нешто што го нарекува „МРИ за АИ“ во следната деценија — проект чија цел е да се разбере како функционира технологијата и навреме да се препознаат можните ризици што ги носи.

Извршниот директор на една од водечките компании за вештачка интелигенција призна: „Немаме поим како навистина функционира АИ“

Зошто АИ се однесува така – никој не знае

Ако генеративна АИ направи нешто – на пример, сумира финансиски документ – научниците не можат да кажат со сигурност зошто го избрала токму тој збор или зошто понекогаш греши иако најчесто е точна. Според Амодеи, дури и оние што ја градат оваа технологија немаат целосна претстава за нејзиниот внатрешен процес. И да, според него, „секој што е загрижен поради тоа има право“.

Зошто АИ се однесува така – никој не знае

Системи базирани на шеми, а не разбирање

Голем дел од сегашната АИ – од генератори на слики до пишување текстови – не функционираат според логички правила туку со статистичко откривање на шеми од огромни количини на податоци. Тоа значи дека тие реплицираат човечка креативност, но не ја разбираат. „Овој недостиг од разбирање е навистина нешто што досега не сме го виделе во историјата на технологијата“. - пишува Амодеи

Системи базирани на шеми, а не разбирање

Одделување од OpenAI и фокус на безбедност

Амосдеи и неговата сестра Даниела ја напуштиле OpenAI во 2020 година поради несогласувања за тоа како компанијата раководи со безбедносните прашања. Тие, заедно со уште петмина од OpenAI, ја основале Anthropic со цел да изградат побезбедна вештачка интелигенција. Дел од таа мисија денес е токму истражувањето на „внатрешната логика“ на моделите.

Одделување од OpenAI и фокус на безбедност

Први резултати од тестирање на интерпретабилност

Амодеи објасни интересен експеримент: „црвен тим“ намерно внел проблем во моделот, а неколку „сини тимови“ имале задача да го откријат. Неколку од нив успешно го пронашле проблемот со користење на алатки за интерпретабилност – што значи дека барем некаков увид во начинот на работа на АИ е возможен.

Први резултати од тестирање на интерпретабилност

Човештвото има право да знае

Иако има уште многу работа, важно е што некој се труди да открие зошто АИ прави одредени избори. Како што заклучува Амодеи: „Моќната АИ ќе ја обликува судбината на човештвото – и ние имаме право да ги разбереме сопствените креации пред тие да го трансформираат нашето општество, економија и иднина.“

Човештвото има право да знае