Bloquer trop, on étouffe les clients ; bloquer mal, on laisse passer les attaquants. Dans un contexte où les attaques par bots assistés par IA se complexifient, seules des métriques précises de faux positifs et négatifs permettent d’évaluer la fiabilité d’une défense sans compromettre l’expérience utilisateur.

Selon le 10ème baromètre CESIN publié en 2025, 47 % des entreprises françaises déclarent avoir été victimes d’au moins une cyberattaque réussie en 2024. Dans la course à la protection des plateformes numériques contre des attaques de bots de plus en plus sophistiquées, certains fournisseurs font des promesses audacieuses : zéro faux positif, détection parfaite, aucune interruption.

Mais lorsqu’il s’agit de sécurité basée sur l’IA, les promesses de perfection sont trompeuses. En réalité, tout système de détection intelligent doit trouver un équilibre entre le blocage du trafic malveillant et l’autorisation des utilisateurs légitimes. Cet équilibre n’est pas binaire, et il n’a certainement rien de magique. C’est une question de mathématiques. C’est une question de mesure. Et c’est ce qui fait la différence entre instaurer la confiance ou la briser.

Trouver le juste équilibre

Le succès de tout système de détection basé sur l’IA repose sur deux indicateurs : les faux positifs et les faux négatifs. Les faux positifs se produisent lorsque des utilisateurs légitimes sont signalés à tort. Les faux négatifs se produisent lorsque des attaquants passent inaperçus. Aucun des deux n’est acceptable, mais aucun ne peut être complètement éliminé.

En réalité, il est facile de promettre zéro faux positif si l’on ne bloque simplement rien. Mais cela signifie aussi ouvrir les portes à tous les bots, scrapers et fraudeurs. À l’inverse, bloquer tout le monde peut éliminer les faux négatifs, mais au prix des utilisateurs légitimes. Ce n’est pas de la protection, c’est de la paralysie.

Une protection efficace contre les bots doit trouver un équilibre. Et cet équilibre ne peut être atteint que lorsque les systèmes de détection sont conçus autour de mesures et de réponses en temps réel.

La vérité sur le zéro faux positif

Soyons clairs : un taux de faux positifs à 0 % n’est pas réalisable avec de véritables systèmes d’IA et de Machine Learning. Tous les modèles intelligents, aussi avancés soient-ils, commettent des erreurs de classification (bien que que très rarement). C’est le compromis de la prise de décision adaptative et basée sur les données. Prétendre à la perfection, c’est ignorer le fonctionnement réel de l’IA.

Ce qui importe davantage, c’est la manière dont ces erreurs sont mesurées, gérées et atténuées. Les systèmes de détection transparents évaluent en permanence les performances à l’aide du trafic en temps réel et utilisent des scores de confiance probabilistes pour déterminer le degré de certitude ou d’incertitude d’une classification. Lorsque l’incertitude survient, des mécanismes intelligents de validation, tels que l’empreinte digitale des appareils ou l’analyse comportementale, peuvent lever les ambiguïtés en arrière-plan sans perturber l’expérience utilisateur.

Les boucles de rétroaction en temps réel sont le fondement d’une IA véritable

La norme d’excellence en matière de protection contre les bots n’est pas un modèle unique ou une solution miracle, mais un système continu, en boucle fermée, qui évolue en réponse à un comportement réel. Cela signifie intégrer des données provenant à la fois des systèmes de détection (par exemple, la télémétrie du trafic, la détection d’anomalies, les défis invisibles) et des signaux provenant du côté de l’entreprise (par exemple, les taux de succès des connexions, l’abandon de panier, les alertes de fraude).

Cette boucle de rétroaction doit fonctionner automatiquement et à grande échelle, en alimentant les modèles de détection avec de nouvelles informations afin de garantir une adaptation rapide aux menaces émergentes. Les meilleurs systèmes ne s’appuient pas sur des signatures statiques ou des procédures réactives : ils apprennent de chaque interaction, s’améliorent en continu et protègent de manière proactive.

Pourquoi la mesure est-elle cruciale pour la performance commerciale ?

Les faux positifs ne sont pas seulement des mesures techniques. Ils constituent également des risques commerciaux. Les défis excessifs imposés aux utilisateurs, les performances lentes du site ou les transactions bloquées ont un impact direct sur les conversions et la fidélité des clients. À l’inverse, les menaces manquées augmentent les rétrofacturations, la fraude sur les comptes et les risques réglementaires.

Les entreprises qui privilégient une défense contre les bots à faible latence et axée sur la précision obtiennent des résultats mesurables : des expériences de paiement plus fluides, moins de tickets d’assistance et une fidélisation client plus élevée. Dans l’économie numérique actuelle, protéger l’expérience utilisateur est tout aussi important que bloquer la fraude. C’est pourquoi la mesure continue des performances n’est pas un luxe, mais une nécessité.

La transparence est la base de la confiance

En France, où la cybercriminalité représenterait un coût annuel de plus de 100 milliards d’euros, mieux vaut rester prudent face aux solutions qui se disent infaillibles, sans en apporter la démonstration concrète… Les responsables de la sécurité qui évaluent les technologies de protection doivent exiger la transparence : des tableaux de bord de performance en temps réel, des KPI audités et des décisions d’IA explicables. Il faut poser les bonnes questions. Quel est le taux réel de faux positifs et comment est-il calculé ? Comment le système gère-t-il l’incertitude ? Quels sont les retours de l’entreprise qui alimentent la détection ? Comment les modèles sont-ils mis à jour en temps réel ? Si les réponses ne s’appuient pas sur des résultats mesurables, il ne s’agit pas de science, mais de spéculation.

L’avenir de la détection : vers une approche basée sur l’intention

En 2024, 4 386 incidents de sécurité ont été signalés en France, soit une hausse de 15 % par rapport à l’année précédente. De plus en plus de ces intrusions sont le fait de bots de nouvelle génération, parfois assistés par des IA génératives. À mesure que les bots deviennent plus ressemblants à des humains et que les attaquants exploitent l’IA agentique, les défenses traditionnelles reposant sur les CAPTCHA ou l’empreinte digitale des navigateurs s’avèrent insuffisantes. L’avenir de la protection contre les bots réside dans la détection basée sur l’intention, c’est-à-dire des systèmes qui vont au-delà des actions des utilisateurs pour comprendre pourquoi ils les effectuent.

Ce changement impose un nouveau standard : une protection adaptative, explicable et résolument conçue pour fournir des résultats mesurables. Il ne s’agit pas d’être parfait, mais d’être précis, responsable et en constante amélioration.

Car on ne peut pas défendre ce qu’on ne mesure pas. Et en cybersécurité, la différence entre 0,01 % et 0 % n’est pas juste une erreur d’arrondi, c’est la différence entre la confiance et le risque !
____________________________

Par Benjamin Fabre, CEO et fondateur de DataDome

 

À lire également :

L’avènement de l’IA agentique rebat les cartes de la lutte contre la fraude…

Bots malveillants : un défi majeur pour le secteur de la distribution informatique

Lutte anti-fraudes : comment le ML redessine les stratégies gagnantes

Les Bad Bots à l’assaut des API…