Nous avons assisté ces dernières années à la rapide montée en puissance de l’intelligence artificielle générative dans différents secteurs. De la création d’œuvres d’art à la génération de textes, cette technologie a démontré son potentiel. Son utilisation a toutefois suscité des inquiétudes dans certains domaines, notamment celui de la cybersécurité. L’IA générative doit inviter chaque entreprise à s’interroger sur l’augmentation de la surface d’attaque, des menaces et des risques qui l’accompagne.

L’un des exemples les plus marquants est le cas récent d’un journaliste qui a utilisé la technologie vocale basée sur l’IA pour obtenir l’accès à son propre compte bancaire. Il s’est servi d’un logiciel qui génère de l’audio pour imiter sa propre voix. Il a ensuite utilisé cette voix clonée pour tromper le système d’accès vocal et accéder à son compte. Cette expérience démontre qu’une personne mal intentionnée peut très bien utiliser la technologie vocale générée par l’IA pour contourner les mesures de sécurité. Une telle utilisation de l’IA générative a pour effet d’étendre encore davantage la surface d’attaque globale.

Chaque progrès de la technologie crée de nouveaux vecteurs d’attaque qui peuvent être exploités par les hackers. L’IA générative peut, par exemple, servir à créer des répliques convaincantes de presque tout : enregistrements vocaux, images, etc. Ces répliques peuvent ensuite être utilisées pour des activités frauduleuses telles que l’usurpation d’identité et les « deepfakes ». L’utilisation croissante de l’IA générative dans divers secteurs d’activité rend la surface d’attaque plus complexe et multiforme. Outre les surfaces d’attaque traditionnelles, réseaux, points d’extrémité, applications, etc., l’IA générative crée de nouvelles surfaces d’attaque : clonage de voix et d’images, deepfakes et outils de piratage.

Comment lutter contre les détournements de l’IA ?

Les outils de piratage basés sur l’IA peuvent imiter le comportement humain et apprendre des attaques précédentes, ce qui les rend encore plus difficiles à détecter et à combattre. Pour contrer ces nouvelles menaces, les mesures de sécurité traditionnelles risquent de ne plus être suffisantes.

Confrontées à une telle expansion de la surface d’attaque, les organisations doivent adopter une approche multicouche de la cybersécurité. Une approche qui combine mesures de sécurité traditionnelles et outils d’IA et implique d’investir dans des systèmes de sécurité robustes, capables de détecter et de bloquer l’utilisation malveillante de l’IA générative. Cette approche multicouche doit aussi pouvoir exploiter l’IA pour analyser de grandes quantités de données et détecter les anomalies.

Les organisations doivent rester vigilantes et proactives dans leur approche de la cybersécurité. Elles doivent s’informer des derniers développements de l’IA et afin de protéger leurs actifs des cybermenaces. La formation du personnel de sécurité est vitale. Ils doivent être capables d’identifier et de bloquer les nouvelles menaces. Des technologies telles que la blockchain peuvent servir à créer de grands livres numériques inviolables permettant de garantir l’authenticité des actifs numériques.

Dans le domaine de la cybersécurité, l’expansion de la surface d’attaque et, en fait, sa métamorphose en de multiples surfaces, constitue une nouvelle étape de l’affrontement permanent entre défenseurs et attaquants. Ce n’est qu’en adoptant une approche globale et adaptée de la cybersécurité et de la gestion de la surface d’attaque que les organisations peuvent espérer garder une longueur d’avance sur les hackers et protéger leur environnement.

La grande menace de l’IA ou combattre le feu par le feu

Avec le développement de l’IA, les risques d’attaques ne font qu’augmenter. Il est donc vital que les organisations s’informent des dernières avancées de l’IA et les intègrent à leurs stratégies de cybersécurité. Elles doivent utiliser les algorithmes de machine learning, le traitement du langage naturel, mais aussi d’autres outils d’IA pour identifier et éliminer les menaces.

L’IA révolutionne le domaine de la cybersécurité, car défenseurs et attaquants utilisent ses capacités pour améliorer leurs tactiques. Cette utilisation de l’IA pour la cybersécurité offre de réels avantages. L’IA accélère la détection des menaces et réduit les délais d’intervention. Elle assure en outre une identification plus précise des menaces potentielles.

Toutefois, face à la montée en puissance des outils de piratage basés sur l’IA, le futur de la cybersécurité apparaît de plus en plus complexe. Ces outils peuvent en effet imiter le comportement humain et apprendre des attaques précédentes, ce qui les rend beaucoup plus difficiles à détecter et à combattre. À mesure que l’IA progresse, les cybercriminels continuent à élaborer des attaques plus sophistiquées, capables de contourner les mesures de sécurité traditionnelles.

Pour anticiper ces menaces, les organisations doivent mettre en œuvre une stratégie de sécurité multicouche combinant mesures de sécurité traditionnelles et outils d’IA. Elles doivent tirer parti de l’IA pour analyser de grandes quantités de données et détecter les anomalies. Elles doivent aussi former leur personnel de sécurité afin qu’il puisse identifier et bloquer les nouvelles menaces.

IA contre IA

Allons-nous assister à des guerres d’IA dans le domaine de la cybersécurité ? L’idée de l’IA contre l’IA est une idée fascinante. Il n’est pas possible d’affirmer toutefois que de futures guerres d’IA vont avoir lieu. Rappelons que l’IA est un outil créé par l’homme pour accomplir des tâches spécifiques et n’a pas de motivations ni de désirs propres. Le concept de guerres d’IA est donc plus probablement le résultat d’une décision humaine et non de systèmes d’IA décidant spontanément de s’engager dans des conflits.

Cela étant, il existe certainement des scénarios dans lesquels des systèmes d’IA pourraient être amenés à s’attaquer mutuellement. À titre d’exemple, si un État devait développer des systèmes d’IA très sophistiqués pour la cyberguerre, un autre État, pour contrer ces attaques, pourrait réagir en développant ses propres systèmes d’IA. Nous pourrions alors aboutir dans cette cyberguerre basée sur l’IA à une sorte de « course aux armements ».

Il est important de rappeler cependant que le développement de systèmes d’IA est fortement réglementé par les gouvernements et les organisations internationales, de même que leur déploiement. Toute utilisation de l’IA dans une guerre serait en outre soumise à des considérations éthiques, juridiques et diplomatiques. De nombreux chercheurs et experts dans le domaine de l’IA travaillent activement à l’élaboration de cadres et de normes éthiques pour une utilisation responsable de l’IA dans diverses applications, dont la guerre.

En somme, si l’idée de guerres d’IA est intéressante, il est peu probable que de telles guerres se produisent spontanément, c’est-à-dire sans décision humaine. Il est important que gouvernements, organisations et chercheurs continuent à coopérer afin que l’IA soit développée et utilisée de manière responsable et éthique.La clé du succès dans la lutte contre les cyberattaques réside dans le fait de rester proactif. En adaptant continuellement leurs stratégies de cybersécurité, les organisations peuvent anticiper les menaces de l’IA générative, mais aussi d’autres technologies émergentes. Avec la bonne approche, elles pourront assurer la protection de leur environnement et opérer dans un environnement digital sûr et stable.
____________________________

Par Nadir Izrael, co-fondateur et CTO Armis

 

À lire également :

Les enjeux clefs de l’IA générative

Les IA génératives : Un potentiel infini, mais à quel coût de stockage ?

ChatGPT & cybercriminalité : créer des malwares grâce à l’IA conversationnelle

Intégration de l’IA en entreprise : les professionnels de la sécurité doivent-ils s’inquiéter ?

Avec Security Copilot, Microsoft met l’IA GPT-4 au cœur de la Cybersécurité

Crowdstrike lance sa propre IA générative dédiée à la cybersécurité, Charlotte AI

Google joue aussi la carte IA générative pour la cybersécurité

Microsoft, Google, Veracode, SentinelOne, IBM et Torq… Des IA génératives au cœur de la cybersécurité