Cybersécurité et IA : un jeu d’échecs grandeur nature. Chaque avancée d’utilisation de l’IA en matière défensive s’accompagne d’une sorte de contre-offensive des cyberattaquants qui en exploitent le potentiel à des fins malveillantes tout en profitant des failles des algorithmes et des systèmes pour retourner les modèles à leur profit. Rapide aperçu des capacités défensives et offensives des IA mais aussi de leurs failles et des bonnes pratiques à adopter…
L’intelligence artificielle (IA) est désormais au cœur des discussions sur l’avenir de la cybersécurité. Le sommet pour l’action sur l’IA, qui s’est tenu à Paris du 6 au 11 Février, a réuni des experts et décideurs internationaux pour explorer les opportunités et “promouvoir une stratégie française et européenne ambitieuse en matière d’IA”.
Parmi les sujets majeurs, on retrouve la sécurité des systèmes d’IA et leur double potentiel à renforcer ou à compromettre la cybersécurité.
L’IA comme alliée de la cybersécurité
L’IA possède des bonnes capacités pour améliorer la détection et la prévention des cyberattaques. Grâce à l’apprentissage automatique, les systèmes de cybersécurité analysent des volumes massifs de données et identifient des comportements suspects en temps réel.
L’automatisation des réponses aux incidents permet de réagir rapidement aux menaces, limitant ainsi leur impact. Cette approche réduit le temps de réponse des entreprises et institutions face à des cyberattaques toujours plus sophistiquées.
L’IA joue aussi un rôle clé dans le renforcement des systèmes de protection :
* Amélioration des systèmes de chiffrement et d’authentification multi-facteurs : les algorithmes d’IA analysent les comportements des utilisateurs pour renforcer les mécanismes d’authentification, sécurisant davantage l’accès aux systèmes.
* Détection proactive des vulnérabilités dans les logiciels et infrastructures : les outils basés sur l’IA peuvent identifier des failles potentielles avant leurs exploitations, permettant une correction proactive.
* Automatisation des tests de sécurité et des mises à jour de correctifs : l’IA automatise des processus de test, garantissant que les systèmes restent protégés face aux menaces émergentes.
* Apprentissage et adaptation continue : les systèmes d’IA évoluent en permanence, apprenant des nouvelles menaces et adaptant leurs défenses, ce qui est essentiel face à des cyberattaques de plus en plus sophistiquées.
* Surveillance continue des réseaux pour prévenir les intrusions : les systèmes d’IA surveillent en permanence le trafic réseau, détectant et répondant aux activités suspectes en temps réel.
L’IA comme menace pour la cybersécurité
Toutefois, l’IA est une arme à double tranchant. Les cybercriminels l’exploitent pour mener des attaques sophistiquées. Des techniques telles que les deepfakes, les attaques par empoisonnement de données et le phishing automatisé posent de nouveaux défis aux experts en sécurité.
Les cybercriminels utilisent des IA avancées pour contourner les systèmes de défense traditionnels. Les deepfakes, par exemple, permettent de manipuler des identités à des fins frauduleuses, tandis que les algorithmes génératifs facilitent la création de malwares capables d’adapter leur comportement en fonction des systèmes de sécurité. Selon une analyse de Cybersecurity Ventures, le coût mondial de la cybercriminalité atteindra 10 500 milliards de dollars par an d’ici 2025.
Par ailleurs, la vulnérabilité des systèmes d’IA constitue elle-même un risque majeur. Selon l’ANSSI (Agence nationale de la sécurité des systèmes d’information), l’IA peut être manipulée par des attaquants pour fausser les résultats des modèles prédictifs, compromettant ainsi leur fiabilité. Ces attaques peuvent prendre différentes formes :
* L’empoisonnement : vise à altérer les données d’entraînement ou le modèle lui-même, affectant ainsi les réponses du système.
* L’extraction : cherche à reconstruire ou récupérer des données confidentielles du système d’IA, telles que les paramètres du modèle ou les données d’entraînement.
* L’évasion : consiste à modifier les données d’entrée pour perturber le fonctionnement normal du système d’IA. Ces attaques représentent des menaces sérieuses pour l’intégrité et la confidentialité des systèmes d’IA, nécessitant des mesures de protection robustes.
Recommandations de l’ANSSI pour une IA sécurisée
Face à ces enjeux, l’ANSSI a publié des recommandations pour garantir la sécurité des systèmes d’IA. Dans sa publication intitulée « Recommandations de sécurité pour un système d’IA générative », l’agence vise à sensibiliser les administrations et les entreprises aux risques associés à l’IA générative et à promouvoir les bonnes pratiques en matière de sécurité.
Parmi les mesures préconisées figurent la :
* Gestion des données d’entraînement : assurer l’intégrité et la confidentialité des données utilisées pour entraîner les modèles d’IA afin de prévenir l’empoisonnement ou la fuite de données sensibles.
* Robustesse des modèles : développer des modèles capables de résister aux tentatives de manipulation, notamment en testant leur résilience face à des entrées malveillantes.
* Surveillance continue : mettre en place des mécanismes de surveillance pour détecter les comportements anormaux des systèmes d’IA en temps réel.
* Mise à jour et maintenance : établir des procédures régulières de mise à jour des modèles et des systèmes pour corriger les vulnérabilités identifiées.
* Transparence : favoriser le développement de modèles d’IA dont les décisions peuvent être expliquées et comprises, afin de renforcer la confiance des utilisateurs et de faciliter l’identification des comportements anormaux.
Développer la confiance dans l’IA
L’ANSSI et ses partenaires internationaux, tels que le BSI (Office fédéral allemand de sécurité des technologies de l’information) et le NCSC-UK (Centre national de cybersécurité du Royaume-Uni), soulignent l’importance d’une approche par les risques pour développer la confiance dans les systèmes d’IA. Cette approche vise à favoriser l’usage de systèmes d’IA de confiance et à sécuriser leur chaîne de valeur.
Les agences internationales appellent à une évaluation rigoureuse des risques liés à l’IA, en tenant compte des opportunités et des menaces spécifiques à cette technologie. L’ANSSI recommande de mener une analyse de risque avant tout déploiement de système d’IA, afin d’identifier les mesures de sécurité à mettre en œuvre pour maîtriser ces risques.
Les principaux risques identifiés incluent la compromission de l’infrastructure d’hébergement, les attaques par empoisonnement des données d’entraînement, et les vulnérabilités spécifiques à l’IA, telles que l’extraction de données confidentielles ou l’évasion des systèmes de détection. Pour atténuer ces risques, l’ANSSI propose plusieurs recommandations.
Parmi ces préconisations nous retrouvons :
1 – Limiter l’usage automatisé des systèmes d’IA pour des actions critiques : intégrer une validation humaine dans les processus automatisés pour garantir la fiabilité des décisions prises par l’IA.
2 – Cartographier la chaîne d’approvisionnement : identifier et évaluer les composants matériels, logiciels et les jeux de données utilisés dans les systèmes d’IA pour limiter les risques d’empoisonnement et d’extraction de données.
3 – Superviser et maintenir les systèmes d’IA en continu : assurer une surveillance constante pour détecter et corriger les biais ou vulnérabilités qui pourraient affecter la cybersécurité.
4 – Mettre en place une veille technologique et réglementaire : anticiper les évolutions du contexte et adapter les stratégies de sécurité en conséquence.
5 – Former et sensibiliser les équipes : garantir que les décisions d’implémentation sont éclairées par une compréhension approfondie des enjeux et des risques liés à l’IA.
En adoptant ces recommandations, les organisations peuvent renforcer la confiance dans leurs systèmes d’IA tout en minimisant les risques associés.
Bilan et perspectives : naviguer entre les promesses et les risques
L’IA représente à la fois une opportunité et un défi pour la cybersécurité. En adoptant les recommandations de l’ANSSI et en intégrant une approche basée sur les risques, les organisations peuvent tirer parti des avantages de l’IA tout en minimisant les risques associés. La vigilance et la mise en œuvre de bonnes pratiques de sécurité sont essentielles pour profiter pleinement du potentiel de l’IA en constante évolution.
Pour aller plus loin, il est crucial de continuer à investir dans la recherche et le développement de technologies de cybersécurité avancées, tout en encourageant la collaboration entre les secteurs public et privé. Les régulations et les normes internationales joueront également un rôle clé dans la mise en place de standards de sécurité robustes pour les systèmes d’IA. En fin de compte, une approche équilibrée et proactive permettra de maximiser les bénéfices de l’IA tout en atténuant les risques pour la cybersécurité.