Selon Microsoft et OpenAI, au moins cinq groupes de cyberattaquants financés par des États ont utilisé ChatGPT dans le cadre de leurs opérations malveillantes. Et les deux éditeurs donnent quelques pistes sur les usages de l’IA par ces groupes de hackers.

Dans deux longs billets de blog, Microsoft et OpenAI reconnaissent avoir repéré et bloqué des agissements malveillants de cyberattaquants opérés par le truchement de ChatGPT. L’IA est un outil et, comme bien des outils, elle peut être utilisée pour le meilleur comme pour le pire.

Les deux éditeurs pointent notamment du doigt les agissements de quelques groupes bien connus et sponsorisés par des états :

>> Charcoal Typhoon (affilié à la Chine, aussi désigné Chromium ou Aquatic Panda) a utilisé l’IA d’OpenAI pour réaliser des recherches sur diverses entreprises et outils de cybersécurité, déboguer du code, générer des scripts, et créer du contenu susceptible d’être utilisé dans des campagnes d’hameçonnage. ChatGPT a aussi été utilisé pour générer des commandes avancées permettant d’obtenir des accès plus profonds dans les systèmes.

>> Salmon Typhoon (affilié à la Chine, connu sous le nom de Maverick Panda ou APT4) a utilisé ChatGPT et GPT-4 pour traduire des documents techniques, récupérer des informations accessibles au public sur plusieurs agences de renseignement mais aussi sur des acteurs régionaux de la menace, aider au codage et rechercher des moyens courants de dissimuler des processus sur un système. L’IA a aussi été utilisé pour identifier et résoudre des erreurs dans leurs codes sources et pour aider au développement de codes malveillants (des requêtes qui ont déclenché les protections du chatbot et évité la génération du code demandé).

>> Crimson Sandstorm (affilié à l’Iran et plus connu sous le nom Curium) a utilisé ChatGPT pour le support de scripts liés au développement d’applications et de sites Web, la génération de contenu susceptible d’être utilisé dans des campagnes de spear-phishing, et la recherche de moyens courants permettant aux logiciels malveillants d’échapper à la détection. L’IA conversationnelle a aussi été utilisée pour assister les développeurs en .NET.

>> Emerald Sleet (affilié à la Corée du Nord, aussi connu sous le nom de Thallium) a fait appel ChatGPT et Copilot pour identifier des experts et des organisations spécialisés dans les questions de défense dans la région Asie-Pacifique, pour comprendre les vulnérabilités accessibles au public, pour aider à réaliser des tâches de script de base et pour rédiger des contenus susceptibles d’être utilisés dans des campagnes d’hameçonnage. Les hackers ont aussi utilisé l’IA conversationnelle pour faire des recherches sur les vulnérabilités connues, déboguer du code et comprendre le fonctionnement de certaines technologies Web.

>> Forest Blizzard (affilié à la Russie, aussi connu sous le nom de Strontium, très actif depuis le déclenchement de la guerre en Ukraine) exploite principalement ChatGPT pour la recherche de sources ouvertes sur les protocoles de communication par satellite et la technologie d’imagerie radar, ainsi que pour l’aide à la rédaction de scripts. Ces hackers ont typiquement demandé à ChatGPT de générer du code pour manipuler des fichiers, extraire des données, générer des ‘expressions régulières’ afin d’automatiser et optimiser certaines opérations techniques.

Sur le fond, les hackers utilisent finalement essentiellement ChatGPT comme le font aujourd’hui bien des développeurs. Ce sont leurs desseins qui sont différents.

Aide à la création de courriels de phishing, aide à la création de scripts d’attaques et d’évasion, aide à la création de sites malveillants, aide à la recherche d’informations… Les cybercriminels exploitent les IA génératives de bien des façons pour se simplifier la tâche, explorer de nouvelles pistes, et être plus productifs dans leurs agissements néfastes.

Toutefois Microsoft précise que « nos recherches avec OpenAI n’ont pas permis d’identifier d’attaques significatives directes utilisant les LLM que nous surveillons de près. En même temps, nous pensons qu’il est important de publier ces recherches pour exposer les premières étapes, les mouvements incrémentiels que nous observons chez des acteurs bien connus de la menace et pour partager avec la communauté des défenseurs des informations sur la manière dont nous les bloquons et les controns ».

Microsoft rappelle que le récent Executive Order sur l’IA signé par Joe Biden « impose des tests de sécurité rigoureux et une supervision gouvernementale pour les systèmes d’IA qui ont un impact majeur sur la sécurité nationale et économique ou sur la santé et la sécurité publiques ».

Microsoft et OpenAI veulent faire preuve de transparence et avertir à la fois le public et leurs actionnaires des usages malveillants de l’IA pratiqués par les attaquants mais aussi des actions prises pour contrer ces agissements.

Les deux éditeurs expliquent que les comptes et ressources de ces groupes cybercriminels sur les infrastructures de Microsoft et d’OpenAI ont été bloqués et désactivés.

 

À lire également :

IA générative : menaces et risques pour la cybersécurité

En 2024, IA, cybersécurité et attaques toujours à l’agenda des DSI

L’IA, outil des cybercriminels dans de nouveaux types d’attaques

Cybersécurité et IA : un cocktail explosif ?

OpenAI donne de la mémoire à ChatGPT

OpenAI : 2 milliards de dollars et de nouveaux agents intelligents

OpenAI lance son (très attendu) GPT Store : découvrez les premiers GPTs super utiles…