Malware agora usa IA para reescrever o próprio código e evitar detecção
Pesquisadores do Google Threat Intelligence Group (GTIG) descobriram que hackers estão a criar malware que pode aproveitar o poder de modelos de linguagem de grande escala (LLMs) para se reescrever em tempo real. Uma família de malware experimental apelidada PROMPTFLUX, identificada pelo GTIG num post recente do blog, pode reescrever o próprio código para evitar detecção. É uma escalada que pode tornar futuros malwares muito mais difíceis de detetar, sublinhando preocupações crescentes de cibersegurança provocadas pela IA generativa. Ferramentas como PROMPTFLUX “dinamicamente geram scripts maliciosos, ofuscam o próprio código para evitar detecção e aproveitam modelos de IA para criar funções maliciosas sob demanda, em vez de codificá-las no malware”, escreveu o GTIG. De acordo com a Google, esta nova abordagem “just-in-time” representa um passo significativo em direção a um malware mais autónomo e adaptativo.
In This Article:
PROMPTFLUX é um Trojan que aprende a se automodificar através da API Gemini
PROMPTFLUX é um malware do tipo Trojan que interage com a API do modelo Gemini da IA da Google para aprender como se modificar para evitar detecção em tempo real. “Uma análise mais aprofundada das amostras de PROMPTFLUX sugere que esta família de código está atualmente numa fase de desenvolvimento ou de testes, visto que algumas funcionalidades incompletas estão comentadas e existe um mecanismo para limitar as chamadas da API Gemini do malware”, escreveu o grupo. “Felizmente, a exploração ainda não foi observada a infectar máquinas no mundo real, pois o estado atual deste malware não demonstra capacidade de comprometer uma rede ou dispositivo de vítima”, observou a Google. “Tomámos medidas para desativar os ativos associados a esta atividade.”
Ameaças associadas e o mercado negro de IA
No entanto, a GTIG lembrou que malware como PROMPTFLUX parece estar “associado a atores com motivação financeira.” O grupo também alertou para um amadurecimento de “um mercado underground de ferramentas de IA ilícitas”, o que poderia baixar a “barreira de entrada para atores menos sofisticados.” Segundo o Google, “agentes patrocinados pelo Estado da Coreia do Norte, Irã e a República Popular da China” já estão a mexer com IA para melhorar as suas operações.
Resposta e quadro conceitual de segurança
Em resposta à ameaça, o GTIG apresentou um novo quadro conceitual destinado a assegurar sistemas de IA. Enquanto a IA generativa pode ser usada para criar malware quase impossível de detetar, ela também pode ser usada para o bem. Por exemplo, o Google recentemente apresentou um agente de IA, batizado Big Sleep, que é projetado para usar IA para identificar vulnerabilidades de segurança no software. Em outras palavras, é IA contra IA numa guerra de cibersegurança que está a evoluir rapidamente. Mais sobre IA e cibersegurança: Novo ataque grave descoberto contra o novo navegador de IA da OpenAI.
Sobre o autor
Sou editor sênior na Futurism, onde edito e escrevo sobre a NASA e o setor espacial privado, bem como temas que vão de SETI e inteligência artificial a políticas de tecnologia e medicina.