L’overtooling décrit l’utilisation excessive, et souvent évitable, d’un trop grand nombre de solutions. Quel rôle cela joue-t-il dans le département informatique ? Et comment les décideurs peuvent-ils l’éviter à long terme ?
En moyenne, les équipes informatiques utilisent au moins cinq solutions différentes au quotidien, rien que pour la cybersécurité ; et ce, si elles existent, respectivement dans leur environnement de cloud public, de cloud privé et sur site. C’est ce que révèle une enquête récente menée auprès de plus d’un millier de décideurs IT et sécurité. Il est donc clair que les départements informatiques français sont confrontés à un problème d’overtooling.
Mais comment en arrive-t-on à une telle prolification d’outils ? Il s’agit tout simplement d’une réaction aux nouvelles avancées technologiques, à la complexité croissante des environnements informatiques, et à l’évolution constante des menaces. Face à ces changements, les entreprises doivent s’adapter en permanence et ajuster leur niveau de maturité technologique. En effet, compte tenu de la vitesse à laquelle les technologies (comme l’intelligence artificielle) évoluent, certaines solutions sont déjà considérées comme obsolètes après seulement un an. Résultat : au lieu de remplacer les anciens outils par des solutions intégrées, de nouveaux outils viennent s’ajouter, aggravant encore la fragmentation.
L’overtooling ne doit pas conduire à l’aveuglement face aux risques
Comme le dit si bien l’adage : « trop de cuisiniers gâtent le bouillon ». C’est exactement ce qui se passe lorsqu’on empile un trop grand nombre de technologies. Chaque nouvelle solution ou innovation technologique accroît un peu plus la complexité du réseau, rendant l’ensemble de plus en plus difficile à maîtriser. Cette suraccumulation ne complique pas seulement la gestion des systèmes, des données et des identités : elle a aussi des répercussions sur de nombreux autres domaines critiques.
a – Un terrain propice à l’inefficacité et au stress
Dans le travail quotidien, trop d’outils et d’applications entraînent des inefficacités. Ainsi, les équipes IT sont d’une part occupés à passer d’une interface à l’autre. Par ailleurs, une grande partie du temps de travail des équipes est consacrée à la gestion de silos d’information dispersés et au bruit de données en constante augmentation. De nombreuses solutions génèrent en effet un flot continu d’évènements, que les experts doivent encore traiter manuellement dans bien des cas. Selon l’enquête, le volume du trafic réseau a plus que doublé en deux ans, principalement en raison de l’augmentation des workloads IA.
Conséquence : à long terme, les collaborateurs concernés atteignent leurs limites non seulement en termes de temps et de productivité, mais aussi mentalement. L’utilisation de plusieurs outils peut en effet les dépasser, ce que confirme l’enquête de l’année dernière**. À l’époque, 54 % des décideurs IT et sécurité français interrogés avaient déclaré que leurs équipes étaient dépassées par le nombre croissant d’outils. Désormais, le stress et le burnout figurent explicitement sur la liste des préoccupations des cadres.
b – Un budget informatique surexploité
Le calcul est très simple : plus les outils sont mis en œuvre et utilisés activement, plus les dépenses informatiques augmentent. Ainsi, non seulement l’acquisition et l’implémentation initiales ont un coût, mais les éventuels frais de licence et les maintenances nécessaires en ont un aussi. En outre, des coûts non négligeables peuvent survenir pendant l’exploitation (par exemple sous forme de consommation d’électricité lorsque les solutions traitent des données en permanence).
c – Failles de sécurité garanties
Comme si ces défis n’étaient pas assez urgents, la complexité favorise également le risque de menaces. Les risques basés sur l’IA, en particulier, sont désormais omniprésents. Malgré les dangers, la majorité des décideurs IT et sécurité français (83 %) se sentent obligés de faire des compromis pour leur cybersécurité et leurs infrastructures. Par exemple, 39 % d’entre eux acceptent que leurs outils ne s’imbriquent pas correctement les uns dans les autres, ce qui entraîne la création de silos. 55 % affirment que leurs solutions de sécurité ne donnent pas les résultats escomptés et pourraient être bien plus efficaces dans de meilleures conditions. Dans un tel environnement négligé, les points faibles et les failles de visibilité (« angles morts ») sont quasiment inévitables. Celles-ci facilitent d’autant plus l’accès des hackers au réseau sans être vus. Il n’est donc pas surprenant que la proportion d’entreprises touchées par des cyber-attaques ait augmenté au cours des douze derniers mois. Ainsi, 46 % des décideurs IT et sécurité français font état d’incidents de sécurité correspondants, une augmentation de près de 15 points de pourcentage par rapport à l’année précédente.
La clarté plutôt que la complexité grâce à l’intégration et à la visibilité
De nombreuses solutions de sécurité traditionnelles ne sont plus en mesure d’identifier de manière fiable les incidents de sécurité. La cause principale est souvent une visibilité insuffisante et limitée. 34 % des décideurs IT et sécurité en France reconnaissent renoncer à une visibilité complète sur l’ensemble de leurs environnements et flux de données, en guise de compromis face à la complexité croissante et à l’augmentation des volumes. Bien que la majorité (84 %) souhaite inverser cette tendance et renforcer la visibilité, 36 % continuent malgré tout à empiler des solutions de sécurité supplémentaires pour répondre aux défis actuels.
Plutôt que d’élargir encore la surface d’attaque et de générer des signaux inutiles, les décideurs IT et sécurité devraient viser une centralisation de la collecte, de l’analyse et de l’intégration des données de télémétrie réseau, incluant les métriques, événements, journaux et traces. Cette approche permet aux équipes informatiques de bénéficier d’une visibilité complète et approfondie sur le réseau (observabilité avancée), y compris dans les zones les plus obscures et difficiles d’accès. Les menaces, qu’elles soient émergentes ou critiques, peuvent ainsi être détectées plus efficacement et traitées de manière proactive. En remplaçant les solutions isolées par une stratégie de sécurité unifiée, idéalement renforcée par l’intelligence artificielle, les entreprises peuvent à la fois améliorer leur posture de cybersécurité et réduire leurs coûts. De plus, l’automatisation combinée à des recommandations d’action concrètes permet de limiter l’exposition au bruit des données, tout en recentrant les équipes IT sur des tâches à plus forte valeur ajoutée.
Lorsqu’il s’agit de la sécurité des infrastructures, 84 % des décideurs IT considèrent désormais la visibilité réseau, et en particulier l’observabilité avancée comme une priorité stratégique pour leur département. C’est en effet une condition essentielle pour abandonner les approches défensives réactives au profit d’une stratégie proactive, plus efficace, moins coûteuse, et moins frustrante pour les équipes.
____________________________
De Pascal Beurel, Senior Sales Engineer chez Gigamon
Méthodologie
*Cette année, l’étude sur la sécurité du cloud hybride a été commandée par Gigamon et réalisée par Vitreous World du 21 février au 7 mars 2025. Au total, 1 021 personnes ont participé à l’enquête en ligne en France, en Allemagne, au Royaume-Uni, aux États-Unis, à Singapour et en Australie
**L’étude de Gigamon sur la sécurité du cloud hybride de l’année dernière, qui a servi de comparaison, a également été réalisée en collaboration avec Vitreous World. Ces données sont basées sur les résultats d’une enquête en ligne menée du 22 mars au 6 avril 2024 auprès d’un total de 1.033 participants en France, en Allemagne, au Royaume-Uni, aux États-Unis, à Singapour et en Australie.