Microsoft prévient que les acteurs de la menace soutenus par l'État utilisent l'IA dans leurs attaques
Les acteurs étatiques liés à la Russie, à la Corée du Nord, à l’Iran et à la Chine explorent l’intégration de l’intelligence artificielle (IA) et des grands modèles linguistiques (LLM) pour améliorer leurs opérations de cyberattaque existantes.
Un rapport publié conjointement par Microsoft et OpenAI révèle que les deux organisations ont perturbé les efforts de cinq acteurs affiliés à l'État se livrant à des cyberactivités malveillantes en mettant fin à leurs actifs et à leurs comptes.
Microsoft a partagé avec The Hacker News que la prise en charge linguistique est une caractéristique inhérente des LLM, ce qui les rend attrayants pour les acteurs de la menace axés sur l'ingénierie sociale et d'autres tactiques impliquant des communications fausses et trompeuses adaptées aux réseaux professionnels, emplois et autres relations de leurs cibles.
Bien qu’aucune attaque significative ou nouvelle utilisant des LLM n’ait été identifiée jusqu’à présent, l’exploration contradictoire des technologies d’IA a progressé à travers différentes étapes de la chaîne d’attaque, notamment la reconnaissance, l’assistance au codage et le développement de logiciels malveillants.
Les pirates utilisent l'IA pour obtenir de l'aide sur le code et récupérer des informations
Selon le rapport, les acteurs affiliés à l'État cherchaient principalement à tirer parti des services OpenAI pour des tâches telles que l'interrogation d'informations open source, la traduction, la recherche d'erreurs de codage et l'exécution de tâches de codage de base.
Voici quelques exemples d’autres acteurs malveillants qui abusent de l’IA :
- Le groupe d'États-nations russe connu sous le nom de Forest Blizzard (ou APT28) a utilisé les services OpenAI pour des recherches open source sur les protocoles de communication par satellite, la technologie d'imagerie radar et les tâches de script.
- L'acteur nord-coréen Emerald Sleet (ou Kimusky) a employé des LLM pour identifier des experts, des groupes de réflexion et des organisations axés sur les questions de défense dans la région Asie-Pacifique, ainsi que pour des tâches de script et la rédaction de contenus pour d'éventuelles campagnes de phishing.
- L'acteur iranien Crimson Sandstorm (ou Imperial Kitten) a utilisé les LLM pour créer des extraits de code liés au développement d'applications et de sites Web, générer des e-mails de phishing et rechercher des moyens par lesquels les logiciels malveillants pourraient échapper à la détection.
- Les acteurs chinois de la menace Charcoal Typhoon (ou Aquatic Panda) et Salmon Typhoon (ou Maverick Panda) ont utilisé les LLM pour diverses tâches, notamment rechercher des entreprises et des vulnérabilités, générer des scripts, traduire des documents techniques et récupérer des informations sur les agences de renseignement.
Microsoft est en train d'élaborer un ensemble de principes pour atténuer les risques associés à l'utilisation malveillante d'outils d'IA et d'API par les menaces persistantes avancées (APT), les manipulateurs persistants avancés (APM) et les syndicats de cybercriminels. Ces principes visent à établir des garde-fous et des mécanismes de sécurité efficaces autour des modèles d’IA.