Fini l’IA magique, place à l’IA administrable. Tracer chaque appel d’agent, gouverner chaque modèle, sécuriser chaque outil sans céder un pouce de contrôle : c’est sur ce terrain industriel que se positionne désormais Red Hat avec ses cartes habituelles à savoir open source, hybridation et maîtrise du socle.
Au Red Hat Summit 2026, Red Hat a surfé sur la même vague que les dernières conférences Google, Microsoft ou AWS : comment sortir les agents des démonstrations séduisantes pour les faire entrer dans les chaînes de production, avec les mêmes exigences de sécurité, de traçabilité et de gouvernance que les applications critiques.
Au cœur de la stratégie de l’éditeur et des annonces de la conférence trône une brique essentielle (pour Red Hat mais également IBM avec notamment son Sovereign Core) : Red Hat AI 3.4. La nouvelle version de la plateforme IA hybride est pensée pour relier les développeurs, les équipes plateforme et les opérateurs d’infrastructure autour d’un même objectif : faire tourner des modèles et des agents à grande échelle sans perdre le contrôle.
Red Hat AI 3.4 bascule dans l’ère agentique
Le mot-clé, ici, est « metal-to-agent ». Autrement dit, Red Hat ambitionne de couvrir l’intégralité de la chaîne, depuis le socle Linux, Kubernetes et les accélérateurs matériels jusqu’aux modèles, aux API et aux agents autonomes. Le pari n’a rien d’anodin. L’IA agentique multiplie les appels aux modèles, aux outils et aux données. Un agent ne se contente pas d’interroger un LLM : il raisonne, déclenche des fonctions, consulte des référentiels, relance des requêtes et agit parfois directement sur les systèmes. Faute de gouvernance, l’exploitation vire vite au cauchemar. Avec Red Hat AI 3.4, l’éditeur promet d’en faire une mécanique observable et maîtrisable. Et ceci grâce à de nouvelles briques clés.
La première est un « Model-as-a-Service ». Via Red Hat AI Gateway, les administrateurs peuvent exposer en interne des modèles validés, suivre leurs usages, appliquer des politiques d’accès et offrir aux développeurs des API compatibles avec celles d’OpenAI. L’idée est simple : permettre aux entreprises de devenir leurs propres fournisseurs de modèles, plutôt que d’acheter à l’aveugle des jetons auprès de services externes. Côté moteur, Red Hat s’appuie sur vLLM et llm-d pour assurer une inférence distribuée. Le décodage spéculatif, particulièrement mis en avant, promet d’accélérer les réponses d’un facteur deux à trois, sans dégradation notable de la qualité. C’est une technique d’accélération de l’inférence des grands modèles de langage notamment intégrée à vLLM (le moteur d’inférence open source devenu un standard de fait) qui repose sur un principe astucieux : faire travailler en tandem un petit modèle « brouillon », rapide et léger, avec le gros modèle cible. Le premier propose à l’avance plusieurs jetons probables ; le second se contente de les vérifier en une seule passe parallèle, validant d’un coup ce qu’il aurait mis plusieurs cycles à produire seul. Mathématiquement, la sortie reste rigoureusement identique à celle du modèle cible utilisé en mode classique : on gagne en latence sans rien céder sur la qualité. Pour les DSI, le bénéfice est double : des agents plus réactifs (un atout décisif lorsqu’un raisonnement enchaîne plusieurs appels successifs au modèle) et une meilleure densité d’usage des GPU, dont chacun sait à quel point ils pèsent dans le TCO de l’IA en production.
Mais la véritable nouveauté se niche ailleurs : dans l’AgentOps. Red Hat AI 3.4 introduit la traçabilité des appels aux LLM, des appels d’outils et des étapes de raisonnement, avec MLflow comme socle de supervision. S’y ajoutent la gestion cryptographique des identités via SPIFFE/SPIRE, un catalogue MCP, une passerelle MCP destinée à encadrer l’accès aux outils, un registre d’invites et une plateforme d’évaluation pour mesurer qualité, précision, sûreté et risques. L’éditeur intègre également des tests d’attaque automatisés (héritage du rachat de Chatterbox Labs et du projet Garak) pour repérer contournements, injections d’instructions et biais avant la mise en production.
Joe Fernandes, vice-président et directeur général de l’activité IA de Red Hat, résume l’ambition : « L’ère agentique marque une évolution de notre plateforme : il ne s’agit plus seulement de faire tourner des applications traditionnelles, mais de propulser des systèmes intelligents et autonomes. » Autrement dit, Red Hat ne veut pas se contenter d’héberger des modèles. L’éditeur entend devenir le plan de contrôle des agents d’entreprise.
Du poste local à la production, une chaîne pour développer des agents
Les développeurs ne sont pas oubliés. Red Hat officialise au Summit 2026 la disponibilité générale de Red Hat Desktop, déclinaison commerciale et supportée du build Red Hat de Podman Desktop. L’objectif : tordre le cou au fameux « ça marche sur ma machine » en garantissant que l’environnement conteneurisé du poste développeur soit architecturalement identique à celui qui tournera en production sur OpenShift. Bâti sur les mêmes briques durcies que Red Hat Enterprise Linux, l’outil se présente comme un remplacement sans rupture pour les équipes habituées à d’autres environnements de conteneurisation locale.
La nouveauté la plus parlante à l’ère agentique reste le bac à sable d’agents intégré : il permet d’exécuter et de tester des agents autonomes dans un espace isolé du poste développeur, sans qu’une action non vérifiée (appel d’outil hasardeux, commande système intempestive, etc.) ne vienne altérer le système hôte. Une précaution loin d’être théorique quand on sait à quel point un agent en cours de mise au point peut partir en vrille.
Côté IDE dans le cloud, Red Hat OpenShift Dev Spaces gagne en souplesse avec un cadre extensible qui accueille les assistants de codage IA du marché : AWS Kiro rejoint la liste en préversion technique, aux côtés de Microsoft Copilot, Claude CLI, Cline, Continue ou Roo. Un agnosticisme assumé qui laisse au développeur le choix de son copilote.
Enfin, Red Hat Advanced Developer Suite se renforce avec une « trusted software factory » (chaîne logicielle de confiance) assortie des Red Hat Trusted Libraries (bibliothèques Python validées et tracées), de la génération automatisée de SBOM (nomenclatures logicielles), de signatures cryptographiques et d’une couche d’analyse d’exploitabilité assistée par IA. Cette dernière brique mérite qu’on s’y arrête : plutôt que de noyer les équipes sous une avalanche d’alertes CVE, l’IA évalue si une vulnérabilité connue dans le code généré est réellement exploitable dans le contexte d’exécution de l’application. De quoi prioriser la remédiation sur le risque effectif plutôt que théorique. Un argument qui devrait parler aux RSSI autant qu’aux directions du développement à l’heure où le code produit par les modèles explose les volumes à trier.
Au final, Red Hat ne promet pas une IA plus magique mais une IA plus administrable. Un choix logique tant les DSI ont désormais besoin de trouver les bonnes solutions et briques pour gouverner les modèles, tracer les agents, sécuriser les outils, maîtriser les coûts d’inférence et conserver le choix du cloud, du matériel et des assistants sans se sentir captif. C’est là que se joue la vraie bataille.
Red Hat AI Factory avec NVIDIA : l’usine à agents sécurisée
Avec NVIDIA, Red Hat pousse une vision plus industrielle encore : Red Hat AI Factory with NVIDIA. La plateforme combine Red Hat AI Enterprise et NVIDIA AI Enterprise pour fournir un socle destiné aux charges IA agentiques les plus exigeantes. Les nouveautés intègrent OpenShell, projet open source initié par NVIDIA pour exécuter les agents dans un environnement sandboxé, ainsi que des conteneurs confidentiels reposant sur NVIDIA Confidential Computing dans OpenShift sandboxed containers. Red Hat met aussi en avant le support de Blackwell via Red Hat Enterprise Linux for NVIDIA 26.01, le travail engagé autour de Vera Rubin, l’intégration de NVIDIA Run:ai et des blueprints pour le Model-as-a-Service, le RAG/RAFT et la recherche sémantique d’entreprise.
IBM Cloud : inférence managée et virtualisation OpenShift
IBM complète le tableau avec deux services managés : Red Hat AI Inference on IBM Cloud et Red Hat OpenShift Virtualization Service on IBM Cloud. Car oui, au cas où vous l’auriez oublié, IBM Cloud existe toujours… Le premier service sera disponible le 22 mai 2026 et fournit une inférence IA managée avec gouvernance intégrée, API compatibles OpenAI et catalogue de modèles incluant Granite 4.0 H Small, Mistral-Small-3.2-24B-Instruct, Llama 3.3 70B Instruct, GPT-OSS-120B et Nemotron-3-Nano-30B-FP8. Le second, en disponibilité limitée avant une disponibilité générale prévue en juin 2026, vise la migration et l’exploitation de machines virtuelles sur OpenShift, avec gestion du cycle de vie, correctifs, récupération automatisée et outillage de migration.
À lire également :




puis