Се појавија нов тип на компјутерски вируси, кои користат AI за да си го сменат кодот и да избегнат детекција
Истражувачите од Google Threat Intelligence Group (GTIG) открија дека хакери развиваат малициозен софтвер што ја користи моќта на големите јазични модели (LLM) за да го пренапише сопствениот код во реално време. Ова ги создава условите за нова генерација на вируси кои тешко можат да бидат откриени од стандардните антивирус програми, пренесува GTIG во својата најнова блог објава.
In This Article:
- PROMPTFLUX – експериментален малициозен софтвер што го менува својот код со моќта на AI
- PROMPTFLUX работи како тројански коњ и комуницира со Google Gemini AI за самоусовршување
- Google соопштува дека експлоитот сè уште не е откриен во реална околина, но предупредува на брзото созревање на црниот пазар за AI алатки
- Државно спонзорирани групи од Кореја, Иран и Кина веќе користат AI за хакерски напади
- AI во служба на доброто: Google го претстави Big Sleep – агент што открива безбедносни пропусти со помош на вештачка интелигенција
PROMPTFLUX – експериментален малициозен софтвер што го менува својот код со моќта на AI
Експерименталното семејство на малициозен софтвер именувано PROMPTFLUX, идентификувано од GTIG, може да го препише сопствениот код за да избегне детекција. Според тимот од GTIG, алатки како PROMPTFLUX „динамички генерираат малициозни скрипти, го замаглуваат сопствениот код за да избегнат откривање и користат AI модели за да создаваат малициозни функции по барање, наместо да ги вградат директно во малициозниот софтвер.“
PROMPTFLUX работи како тројански коњ и комуницира со Google Gemini AI за самоусовршување
PROMPTFLUX е тројански коњ што комуницира со апликативниот интерфејс (API) на Gemini AI моделот од Google, за да научи како да се модифицира и адаптира во реално време и така избегнува детекција. „Понатамошна анализа на примероците од PROMPTFLUX сугерира дека ова семејство на код моментално е во развојна или тест фаза, бидејќи некои недовршени функции се коментирани, а постои и механизам кој ги ограничува повиците до Gemini API,“ соопштува GTIG.
Google соопштува дека експлоитот сè уште не е откриен во реална околина, но предупредува на брзото созревање на црниот пазар за AI алатки
Google соопштува дека засега експлоитот не е откриен во реална употреба, односно нема докази дека овој малициозен софтвер навистина заразил уреди. „Во моментот, оваа закана нема способност да компромитира мрежа или уред на жртва,“ објаснуваат од компанијата, додавајќи дека веќе се преземени мерки за оневозможување на сите ресурси поврзани со активноста. Сепак, експертите од Google Threat Intelligence Group (GTIG) предупредуваат дека авторите на ваквите малициозни програми често имаат финансиски мотиви, и дека црниот пазар за нелегални AI алатки брзо расте и зрее. Овој тренд, според GTIG, може да доведе до тоа и помалку искусни хакери полесно да дојдат до алатки што овозможуваат злоупотреба на вештачката интелигенција.
Државно спонзорирани групи од Кореја, Иран и Кина веќе користат AI за хакерски напади
Злоупотребата на AI во сајбер-просторот е реална закана. Google предупредува дека државно спонзорирани групи од Кореја, Иран и Кина веќе тестираат и воведуваат AI техники за полесно и поефикасно изведување на хакерски операции. Во одговор на оваа еволуција, GTIG предложи нов модел за заштита на AI-системите кој треба да помогне да се намалат ризиците од такви напади.
AI во служба на доброто: Google го претстави Big Sleep – агент што открива безбедносни пропусти со помош на вештачка интелигенција
Додека генеративната вештачка интелигенција сè почесто се користи за создавање малициозен софтвер кој е речиси невозможно да се открие, Google ја насочува истата технологија во спротивна насока – за заштита. Компанијата неодамна го претстави Big Sleep, AI агент кој користи напредни модели на машинско учење за препознавање и откривање безбедносни слабости во софтверот. Со овој проект, Google практично започнува нова етапа во „сајбер-војната“ – каде што вештачката интелигенција се користи за борба против злоупотреба на самата технологија.