No Image x 0.00 + POST No Image

Le malware réécrit son code grâce à l’IA pour échapper à la détection et redéfinir la cybersécurité

SHARE
0

Des chercheurs du Google Threat Intelligence Group (GTIG) ont découvert que des hackers créent des malwares capables d’exploiter la puissance des grands modèles de langage (LLMs) pour réécrire leur propre code en temps réel. Une famille de malware expérimentale baptisée PROMPTFLUX, identifiée par GTIG dans un billet de blog récent, peut réécrire son propre code afin d’éviter la détection. Cette évolution pourrait rendre les malwares futurs bien plus difficiles à repérer et s’inscrire dans un contexte de cybersécurité déjà préoccupant face à l’avènement et à l’adoption généralisée de l’IA générative.

Le malware réécrit son code grâce à l’IA pour échapper à la détection et redéfinir la cybersécurité

PROMPTFLUX, un cheval de Troie qui s’appuie sur l’API Gemini pour apprendre à se modifier

PROMPTFLUX est une famille de malware qui agit comme un cheval de Troie et qui interagit avec l’API du modèle Gemini de Google afin d’apprendre comment se modifier pour éviter la détection en temps réel. « générer dynamiquement des scripts malveillants, obfusquer leur propre code pour échapper à la détection et exploiter des modèles d’IA pour créer des fonctions malveillantes à la demande, plutôt que de les coder en dur dans le malware, » a écrit GTIG. Selon le géant de la tech, cette approche « juste-à-temps » « représente une étape importante vers un malware plus autonome et adaptatif. »

PROMPTFLUX, un cheval de Troie qui s’appuie sur l’API Gemini pour apprendre à se modifier

État actuel et actions de Google

« L’examen plus approfondi des échantillons PROMPTFLUX suggère que cette famille de code est actuellement en phase de développement ou de test, puisque certaines fonctionnalités incomplètes sont commentées et qu’un mécanisme existe pour limiter les appels de l’API Gemini du malware, » a écrit le groupe. « L’état actuel de ce malware ne démontre pas une capacité à compromettre un réseau ou un appareil victime, » Google a noté. « Nous avons pris des mesures pour désactiver les actifs associés à cette activité. » Néanmoins, GTIG a noté que des malwares comme PROMPTFLUX semblent « associés à des acteurs motivés financièrement ». L’équipe a mis en garde contre un « marché noir pour des outils d’IA illicites », qui pourrait réduire la « barrière à l’entrée pour des acteurs moins sophistiqués ». « Néanmoins, l’exploitation n’a pas encore été observée en train d’infecter des machines dans la nature, » a noté Google. « Nous avons pris des mesures pour désactiver les actifs associés à cette activité. »

État actuel et actions de Google

Des acteurs étatiques et marché noir : le contexte

Le risque de l’utilisation des outils IA malveillants ne se limite pas au crime organisé. Selon Google, « des acteurs parrainés par l’État issus de la Corée du Nord, d’Iran et de la République populaire de Chine » s’amusent déjà à tester l’IA pour renforcer leurs opérations.

Des acteurs étatiques et marché noir : le contexte

Réponses et perspectives dans une cybersécurité en évolution

En réponse à cette menace, GTIG a introduit un nouveau cadre conceptuel visant à sécuriser les systèmes d’IA. Alors que l’IA générative peut être utilisée pour créer des malwares quasi impossibles à détecter, elle peut aussi servir le bien : Google a récemment présenté un agent d’IA baptisé Big Sleep, conçu pour utiliser l’IA afin d’identifier des vulnérabilités dans les logiciels. Autrement dit, c’est l’IA contre l’IA dans une guerre de cybersécurité qui évolue rapidement. Je suis rédacteur en chef senior chez Futurism, où je rédige et écris sur la NASA et le secteur spatial privé, ainsi que sur des sujets allant de SETI et l’intelligence artificielle à la politique technologique et médicale.

Réponses et perspectives dans une cybersécurité en évolution