La bataille des modèles se déplace là où tout se décide : vos données et vos workflows. Quand Snowflake et ServiceNow signent en direct avec OpenAI et Anthropic, l’IA n’est plus un gadget propriétaire, c’est une couche d’exécution qui verrouille gouvernance, contexte et automatisation dans le cloud du quotidien en s’appuyant sur les grands modèles frontières agentiques.

Au fil des récentes annonces, une nouvelle dynamique de marché semble devoir se dessiner dans l’adoption de l’IA au cœur des solutions d’entreprise : les grands acteurs du SaaS et du PaaS signent désormais des accords directs avec les fournisseurs de modèles d’IA de premier plan (comprenez OpenAI et Anthropic) pour intégrer des capacités IA génératives et agentiques au cœur de leurs plateformes.

Officiellement, cette évolution répond d’abord à une exigence des entreprises clientes : exploiter la puissance des grands modèles de langage pour automatiser et enrichir les workflows tout en conservant la gouvernance, la sécurité et le contrôle des données au sein des environnements cloud qu’elles maîtrisent déjà.
Mais elle répond aussi à des logiques économiques à la fois pour ces fournisseurs de services et ces fournisseurs d’IA, en sécurisant des volumes d’usage et des revenus récurrents d’un côté, et en garantissant une distribution massive des modèles dans les applications et les données du quotidien de l’autre.
Enfin, elle répond également à des logiques plus stratégiques, en installant l’IA comme une couche de plateforme difficilement substituable et en verrouillant, via l’orchestration agentique et le contexte métier, le point de contrôle où se joueront demain la différenciation, la dépendance technologique et la maîtrise des données.

Snowflake s’allie à OpenAI pour injecter GPT 5.2 au cœur de la data cloud

Le partenariat pluriannuel entre Snowflake et OpenAI, annoncé cette semaine, illustre bien cette bascule à grande échelle. Évalué à 200 millions de dollars, il vise à intégrer les modèles avancés d’OpenAI (GPT 5.2 notamment) directement dans la plateforme de données de Snowflake, au cœur des services Cortex AI et Snowflake Intlligence. L’accord rend ces modèles disponibles nativement dans l’écosystème Snowflake, permettant aux clients d’interroger les données en langage naturel, d’exécuter des analyses sémantiques sans codage, de construire des agents capables de raisonner sur des données propriétaires et d’automatiser des tâches sans déplacer les données hors d’un environnement gouverné. La “data gravity” ne suffit plus, il faut désormais convertir cette donnée en décisions et en actions, dans un cadre maîtrisé, sans obliger les métiers à sortir de leurs outils ni les DSI à bricoler une couche d’orchestration parallèle.

Snowflake illustre l’intérêt d’une telle intégration au travers de premiers cas d’usage concrets chez des clients en avance de phase, comme Canva et WHOOP, qui exploitent ces capacités pour accélérer la recherche, l’analyse et la prise de décision. L’initiative s’accompagne aussi d’outils destinés aux développeurs, comme Cortex Code, un agent de codage conscient du contexte des données d’entreprise, conçu pour réduire les frictions entre prototype et production.

La stratégie de Snowflake s’inscrit dans une course plus large où plusieurs fournisseurs de données et d’infrastructures cherchent à offrir un accès natif aux modèles d’IA. Databricks, par exemple, a intensifié ses efforts autour d’un cadre d’agents et d’outils d’IA, levant des fonds importants pour accélérer son offre et rivaliser sur le terrain des agents d’entreprise. L’éditeur a ainsi signé avec OpenAI un partenariat très similaire en septembre dernier. Databricks intègre les modèles d’OpenAI, directement dans sa plateforme et dans Agent Bricks, via un accord pluriannuel d’au moins 100 millions de dollars.
Cette concurrence illustre que l’enjeu n’est plus seulement d’ajouter des capacités de génération de texte, mais de fournir des agents et des expériences intégrées qui respectent la gouvernance, la performance et les contraintes opérationnelles des grandes organisations.

ServiceNow s’adosse à Anthropic pour ses workflows agentiques

Autre domaine, autre plateforme, mais même logique, ServiceNow a également conclu cette semaine un accord pluriannuel avec l’autre star de l’IA, Anthropic. Objectif, faire de la famille de modèles Claude le modèle préféré au sein de sa plateforme ServiceNow AI, et pour déployer Claude comme modèle par défaut dans son Build Agent, l’outil qui permet de créer des workflows agentiques et des applications. L’accord prévoit également le déploiement interne de Claude auprès des quelque 29 000 employés de ServiceNow et l’accès à Claude Code pour les équipes d’ingénierie.

ServiceNow met en avant une logique de contrôle unifié via son AI Control Tower, et une approche orientée “mission critical” avec des cas d’usage ciblés dans des secteurs régulés, comme la santé et les sciences de la vie. Ici encore, l’objectif affiché n’est pas de “rajouter de l’IA”, mais de la tisser dans le tissu opérationnel, là où se trouvent les autorisations, les systèmes de record, les contrôles de conformité et les métriques d’exécution.

Néanmoins, on rappellera que ServiceNow avait annoncé il y a quelques semaines un partenariat très similaire avec le concurrent OpenAI. Sans l’afficher pour l’instant haut et fort, ServiceNow semble donc vouloir en réalité s’inscrire dans une stratégie multi‑modèle. Le fournisseur IT cherche à offrir le choix du modèle selon la tâche, en orchestrant plusieurs fournisseurs tout en maintenant des garanties de gouvernance et de sécurité.

Perspective et conclusions pour les mois à venir

Au-delà des éléments d’annonce, ces signatures directes redessinent de nouveaux rapports de force autour de l’IA d’entreprise. Les éditeurs de plateformes cherchent à capter la couche d’usage et de gouvernance, pendant que les fournisseurs de modèles gagnent une distribution massive dans des environnements déjà adoptés. Les plateformes PaaS/SaaS de données et de workflows veulent devenir le point d’ancrage où l’intelligence générative rencontre les données d’entreprise. Parallèlement, les grands fournisseurs de modèles frontières cherchent des canaux fiables pour déployer leurs capacités à grande échelle. Quitte à prendre les hyperscalers en porte-à-faux au cœur d’une bataille entre fournisseurs qui se jouera sur la capacité à offrir une intégration fluide, sécurisée et économiquement attractive et sur l’ensemble de l’expérience utilisateur offerte.

À court terme, on peut s’attendre à une multiplication d’intégrations similaires, à une montée en puissance d’outils agentiques spécialisés et à une intensification des efforts sur la gouvernance, la traçabilité et la performance opérationnelle.

Au passage, les entreprises clientes sont censées gagner en productivité et en rapidité d’innovation mais aussi en gouvernance. A condition qu’elles puissent développer de bonnes pratiques et mesurer précisément le retour sur investissement de leurs déploiements agentiques.

En somme, les prochains mois devraient confirmer (ou pas) si ces alliances créent un avantage concurrentiel durable ou si elles normalisent simplement une nouvelle attente : toute plateforme de données ou de workflow digne de ce nom devra proposer un accès gouverné à plusieurs modèles d’IA pour rester pertinente.

 

 

À lire également :

Snowflake s’offre Crunchy Data et lance sa riposte PostgreSQL face à Databricks

Snowflake mise sur Apache Iceberg pour un Data Cloud plus ouvert

ServiceNow en négociations pour acquérir Armis

ServiceNow dévoile Yokohama : l’ère des agents IA autonomes pour l’IT est lancée

OpenAI lance Codex App pour mieux concurrencer Claude Code

Anthropic fait entrer les apps dans Claude et change la façon de travailler