Les prompts sont devenus une nouvelle frontière de sécurité : injection, jailbreak, fuites… et maintenant des agents qui peuvent déclencher des actions réelles. Sans crash-tests systématiques et garde-fous vérifiables, la prod se transforme vite en terrain d’expérimentation à haut risque. Pour enrichir son portfolio des protections adéquates et offrir à ses clients des métriques sur les risques et dérives des IA en production, Red Hat annonce l’acquisition de la startup britannique Chatterbox Labs.

À mesure que l’IA générative et l’IA agentique quittent les POC pour rejoindre des chaînes de production, la question n’est plus seulement de “faire tourner un modèle”, mais de prouver qu’il est gouvernable, auditable et maîtrisable dans la durée. La surface d’attaque s’étend au-delà des infrastructures et des API classiques, jusque dans les prompts, les pipelines de données, les garde-fous applicatifs et les comportements émergents des agents. Les attaques par prompt injection, les tentatives de jailbreak, les fuites de données et les dérives de toxicité ne relèvent plus de la théorie, y compris dans des scénarios d’agents capables d’interagir avec des services et des applications.

Alors pour aider les organisations à affronter ces nouveaux défis, Red Hat annonce l’acquisition de Chatterbox Labs, spécialiste des tests de sécurité/sûreté des modèles IA et des garde-fous pour l’IA. L’objectif affiché est bien d’ajouter une couche de “security for AI” au portefeuille Red Hat AI, afin de faciliter des déploiements à l’échelle des IA et Apps d’IA, sur cloud hybride, sans dépendance à un modèle ou à un accélérateur particulier.

Industrialiser l’IA sur Kubernetes : “any model, anywhere”

Côté Red Hat, le mouvement s’inscrit dans une trajectoire très largement dessinée par les annonces réalisées en 2025. Après l’optimisation de l’inférence (notamment via l’acquisition de Neural Magic, finalisée début 2025), l’enjeu devient la mise sous contrôle du risque IA au même niveau que les exigences historiques de l’IT d’entreprise (sécurité, conformité, traçabilité, exploitation). Red Hat positionne clairement Chatterbox Labs comme un complément de sa pile existante (Red Hat OpenShift AI, RHEL AI et Red Hat AI Inference Server) et comme une extension logique de Red Hat AI 3 (sa plateforme unifiée d’IA pour déployer des modèles IA, gérer l’inférence à grande échelle, standardiser les workflows IA).

Chatterbox Labs mesure le risque IA

Fondée en 2011, basée à Londres avec un bureau à New York, Chatterbox Labs s’est construite sur un positionnement bien défini : mesurer quantitativement le risque et tester, de manière automatisée, la robustesse et la sécurité des systèmes IA tout au long du cycle de vie, y compris en inférence. Sa solution AIMI est une plateforme de métriques de risque et de validation “indépendantes”, avec une approche agnostique des modèles.
Pour l’éditeur, les garde-fous constituent un ensemble de contrôles indispensables, mais ils doivent eux-mêmes être éprouvés, car ils peuvent être contournés ou manipulés. La logique AIMI consiste justement à industrialiser ces tests (jailbreaks, catégories de risques, détection de conformité/refus) à grande échelle.

Tests automatisés, transparence, guardrails… à l’ère agentique

Parce que les garde-fous de l’IA ne sont plus un “nice-to-have”, mais un prérequis de toute plateforme MLOps/LLMOps, Red Hat voit dans cette acquisition un apport clé de capacités de test et de surveillance des inférences capables d’identifier des entrées/sorties « non-sûres, toxiques, or biaisées », auquel vient s’ajouter un volet « transparence des modèles IA » fondé sur des techniques de probing pour repérer prompt injection, jailbreaking ou data leakage.

Selon Red Hat, ces nouvelles capacités viennent accélérer le passage « du lab à la production » en ajoutant une couche critique de sécurité et de transparence au cœur de la plateforme Red Hat AI. L’idée d’une telle couche de « sûreté de l’IA » est de permettre l’innovation en évitant qu’elle ne reste bloquée au stade expérimental faute de preuves opposables côté risques et conformité.

Red Hat insiste aussi sur le fait que Chatterbox Labs a déjà beaucoup travaillé sur une sécurité “holistique” des agents, incluant le monitoring des réponses et la détection de déclencheurs d’actions côté serveurs MCP. Le sujet est sensible. L’IA agentique progresse doucement en entreprise mais les serveurs MCP commencent déjà à se multiplier alors que le protocole MCP organise l’accès à des outils et à des ressources et donc à des opérations potentiellement impactantes sur le SI.

Pourquoi l’acquisition “fait sens” pour Red Hat

Sur le papier, l’intégration des solutions Chatterbox Labs au cœur de Red Hat AI paraît donc très naturelle. D’abord, parce que l’entreprise construit une pile IA enterprise pensée pour l’hybride et l’hétérogénéité « any model, on any accelerator, anywhere » et qu’une telle promesse se fragilise sans mécanismes transverses de validation et de preuve de sûreté. Ensuite, parce que la sécurité IA devient un sujet de gouvernance et de responsabilité : ce que les équipes acceptaient en mode expérimentation (opacité des modèles, évaluation ad hoc, garde-fous bricolés) devient inacceptable en production, surtout dès qu’un agent peut déclencher des actions sur des systèmes cœur.
Enfin, depuis de nombreux mois, les DSI se plaignent d’un manque de métriques et de tableaux de bord exécutifs pour arbitrer les risques IA et la conformité.
Reste désormais à rapidement matérialiser ces capacités dans la feuille de route Red Hat AI.

Car cette acquisition intervient alors que les hyperscalers et les plateformes IA intègrent de plus en plus des fonctions natives de guardrails. AWS pousse Bedrock Guardrails, y compris via une API applicable à des modèles hébergés ou auto-hébergés, et Microsoft industrialise des “Prompt Shields” dans Azure AI Content Safety pour détecter et bloquer des attaques sur les prompts.
En parallèle, l’univers open source propose déjà de nombreuses briques de référence, comme celles de Meta (LLama Guard 3, LLamaFirewall) ou encore NVIDIA NeMo Guardrails, des toolkits destinés à “programmer” des garde-fous autour d’applications conversationnelles.

Parallèlement, le segment spécialisé “AI security” se consolide rapidement. Check Point a annoncé le rachat de Lakera pour sécuriser l’ensemble du cycle de vie IA (LLM, agents), Palo Alto Networks met en avant l’intégration de technologies issues de Protect AI au sein de ses offres, Cato Networks a acquis AIM Security. Trend Micro a récemment lancé « AI Security Package » pour sa plateforme Trend Vision One et des acteurs comme HiddenLayer, Robust Intelligence, Protect AI ou CalypsoAI essayent d’imposer leur nom sur le marché.

 

À lire également :

« La souveraineté, ça ne se décrète pas, ça se vérifie, ça s’audite »

Red Hat lance OpenShift 4.20 avec en ligne de mire l’IA et VMware

Trend Vision One se dote d’un AI Security Package pour sécuriser les usages d’IA

Univers Linux : Red Hat lance RHEL 10

Les écosystèmes, accélérateurs indispensables et catalyseurs de l’innovation en IA…