Entre agents génératifs, menaces nouvelles et pressions réglementaires, la sécurisation de l’inférence IA devient le terrain stratégique des grands acteurs de la sécurité applicative. L’acquisition de CalypsoAI par F5 illustre la bascule vers une sécurité IA « model-agnostic » et l’émergence de cette tendance TRiSM évoquée depuis deux ans par Gartner.

En 2025, l’IA générative et agentique ne se limite plus clairement plus aux “POC” et se déploie désormais dans les apps métiers, les portails clients, les assistants internes et les chaînes d’intégration. Les DSI ont vu apparaître une pile technique inédite, composée de modèles, agents, API, bases de données vectorielles mais aussi une nouvelle surface d’attaque avec des menaces dénommées « prompt injection », « jailbreaks d’IA », « exfiltration de données par assistants IA », « dérives de contenu », etc. Et, histoire de leur mettre un peu plus la pression, les cadres réglementaires entrent en application : l’AI Act d’ici août 2026 mais avec des obligations déjà en vigueur sur les modèles GPAI en 2025 et la CNIL a publié des recommandations pratiques pour un déploiement conforme au RGPD à appliquer dès à présent.
La question n’est donc pas « faut-il sécuriser l’IA ? » (la réponse est « oui et pas qu’un peu ») mais « où et comment placer des garde-fous runtime, indépendants des modèles et multi-cloud » ? Et chaque acteur de la sécurité essaye de placer ses pionts.

Dans ce contexte, F5, acteur majeur de la fourniture et de la sécurisation des applications et API, fait un pas décisif vers la sécurité de l’inférence. Son Application Delivery and Security Platform (ADSP) agrège déjà load-balancing, WAAP, sécurité API et observabilité pour opérer des environnements hybrides et multicloud à grande échelle. Mais il lui manque une vraie brique d’inspection « IA-Native », un domaine dans laquelle la startup CalypsoAI s’est imposée comme pionnier avec sa vision d’une sécurité IA “model-agnostic”, combinant red teaming à grande échelle, garde-fous à l’exécution et visibilité centralisée sur les interactions IA, pour des apps et des agents protégés en temps réel.

Cette semaine, F5 annonce l’acquisition de CalypsoAI pour 180 millions de dollars en numéraire. L’intégration des capacités de CalypsoAI dans F5 ADSP doit aboutir à une solution « la plus complète » de sécurisation de l’inférence, avec protection proactive contre les attaques de type prompt injection et jailbreak, des garde-fous anti-fuite de données et une gouvernance centralisée pour faciliter la conformité RGPD/AI Act.

Un nouveau front de la cybersécurité

La transaction, jugée non significative sur les revenus et résultats à court terme de F5, doit se boucler au quatrième trimestre de l’exercice fiscal 2025 de F5. « L’IA redéfinit l’architecture des entreprises et la surface d’attaque », résume François Locoh-Donou, PDG de F5, pour justifier l’opération. Donnchadh Casey, CEO de CalypsoAI, souligne la demande clients pour « tester la robustesse des systèmes à grande échelle » et poser des garde-fous adaptatifs au niveau de l’inférence.

Stratégiquement, l’opération a du sens pour F5. L’éditeur étend son périmètre : de la protection des apps et API vers la protection des modèles et agents, au travers d’un même plan de contrôle. En capitalisant sur son maillage applicatif (WAF/WAAP, API security, traffic management) et sa présence au-dessus des architectures hybrides, F5 peut insérer des garde-fous IA là où transitent déjà le trafic et les politiques. C’est une continuité logique après ses initiatives et partenariats antérieurs autour des « AI guardrails » et de « l’AI Firewall », désormais internalisés via CalypsoAI.

Le mouvement de F5 est d’autant plus stratégique que les grands de la distribution applicative ont déjà avancé leurs pions dans le domaine de la sécurisation de l’inférence : Akamai a lancé “Firewall for AI” pour bloquer prompt attacks, sorties nocives et exfiltrations ; Cloudflare a introduit des protections d’invite et un “Firewall for AI” intégré à sa suite de sécurité applicative. En face, un écosystème de “pure players” se structure : Robust Intelligence (AI Firewall et guardrails), Lakera (Guard pour bloquer prompt injection/jailbreaks et fuites), HiddenLayer (plateforme sécurité IA de bout en bout), Protect AI (sécurité de la supply-chain et scanners de modèles). L’addition de CalypsoAI à la plateforme F5 place ce dernier en frontal, avec la promesse d’un point d’ancrage unique pour apps, API et IA.

Pas d’industrialisation de l’IA sans boucliers adéquats

Pour les DSI et RSSI, l’enjeu est double. D’abord, réduire la “shadow AI” en imposant des politiques transverses (filtrage et classification des prompts/outputs, masquage/suppression de données sensibles, contrôle de la toxicité et de la conformité) indépendamment du fournisseur de modèle ou du cloud qui héberge les IA. Ensuite, prouver leur maîtrise des risques IA et de la traçabilité : centraliser logs d’audit, scores de risque issus du red teaming continu, et relier le tout au SIEM/SOAR. Ce sont précisément les bénéfices que promet l’intégration CalypsoAI dans l’ADSP de F5. Grâce à cette synergie, il devient possible de déployer des garde-fous adaptatifs opérant en temps réel, d’orchestrer des campagnes de tests d’intrusion automatisés à l’échelle, tout en bénéficiant d’une observabilité centralisée de toutes les interactions avec les modèles et agents. De quoi accélérer l’adoption des usages IA, sans jamais sacrifier la conformité aux exigences réglementaires telles que le RGPD et l’AI Act. Alors que Gartner met en garde contre le nombre élevé d’échecs dans les projets d’agents IA mal encadrés, disposer de mécanismes standardisés et éprouvés pour le contrôle des environnements d’inférence s’impose désormais comme un levier essentiel pour industrialiser et sécuriser la transformation numérique animée par l’IA.

Quoi qu’il en soit, l’achat de CalypsoAI par F5 éclaire un peu plus l’émergence d’une tendance “AI runtime security/TRiSM” intégrée aux plateformes d’application. Pour les DSI/RSSI, c’est l’opportunité d’unifier garde-fous, red teaming continu et gouvernance dans un seul plan de contrôle, une condition qui devient sine-qua-none pour passer de l’expérimentation IA à l’échelle industrielle, sans sacrifier conformité et maîtrise du risque.