Une nouvelle étude Swimlane sur l’adoption de l’IA générative dans les entreprises éclaire le phénomène d’une manière singulière : d’une part les initiatives de gouvernance responsable se généralisent mais leurs effets sont décevants, d’autre part une forme de « fatigue de l’IA » est en train de s’installer chez les DSI et RSSI…
L’IA générative bouleverse profondément les métiers, notamment ceux de l’IT et de la DSI. Son impact transformateur se fait peu à peu ressentir dans tous les domaines y compris en matière de cybersécurité, sujet sur lequel s’est concentré la dernière étude « Is AI Living Up to Its Cybersecurity Promises? » de Swimlane.
Sans surprise, l’étude montre à quel point l’IA générative, les LLMs et les agents IA sont en train de transformer le secteur de la cybersécurité. Elle souligne également – comme on peut s’y attendre – les préoccupations croissantes des DSI et RSSI en matière de sécurité des données et de gouvernance. Non seulement l’IA donne plus d’agilité aux cybercriminels mais les employés tendent à l’utiliser à tort et à travers exposant les données sensibles des clients et de l’entreprise. « L’IA façonne indéniablement la cybersécurité, mais elle présente aussi des défis complexes, notamment en matière de désinformation et de sécurité des données », rappelle d’ailleurs en introduction Cody Cornell, co-fondateur et directeur de la stratégie chez Swimlane.
Un fossé entre protocole et réalité
Au-delà des évidences qui ne méritent pas que l’on s’y attarde, l’étude révèle surtout que 70% des organisations interrogées aux USA et au Royaume-Uni ont effectivement déjà mis en place des protocoles spécifiques pour encadrer l’utilisation des technologies IA.
Pourtant, malgré la mise en place de ces protocoles de gouvernance des usages des assistants IA, 74 % des organisations reconnaissent que des données sensibles ont été partagées de manière inappropriée avec ces IA.
Un chiffre qui souligne l’écart persistant entre les politiques en place et leur application réelle, laissant planer un risque majeur sur la confidentialité des données sensibles.
Une fatigue liée à la surmédiatisation de l’IA
L’autre « révélation » de l’étude, en réalité l’autre mérite de cette étude, est de pointer le doigt sur une réalité qui s’impose à tous les DSI et RSSI : l’IA engendre une certaine lassitude chez les professionnels du secteur. Plus de 76 % des répondants considèrent que le marché actuel est saturé de discours exagérés sur les capacités de l’IA.
Et 55 % d’entre eux commencent à ressentir une fatigue face à la constante focalisation sur ce sujet.
Selon les rapporteurs de l’étude, cette saturation médiatique complique l’identification des véritables solutions efficaces dans un paysage où de nombreux produits revendiquent à tort une base IA.
Malgré ces défis, l’adoption de l’IA dans la cybersécurité demeure perçue comme une nécessité incontournable. Selon le rapport, 89 % des organisations affirment que l’utilisation de l’IA générative et des LLM a amélioré la productivité et l’efficacité de leurs équipes, et 33 % prévoient d’allouer plus de 30 % de leur budget de cybersécurité de 2025 à des solutions IA. Pour Michael Lyborg, responsable de la sécurité de l’information chez Swimlane, « l’utilisation efficace de l’IA n’est plus un luxe, mais une nécessité. Elle permet aux professionnels de la cybersécurité de se concentrer sur des défis plus complexes tout en automatisant les tâches de routine. »
Aujourd’hui les DSI appellent à une approche moins marketing et plus raisonnée, à une démarche équilibrée, alliant innovation et sécurité, afin de maintenir la confiance publique dans le potentiel de l’IA et protéger la confidentialité des données.