Arthur Mensch l’avait dit le 14 janvier à Polytechnique. Six semaines plus tard, l’affaire Anthropic lui donnait raison de façon brutale. Ce qui ressemblait à une querelle américaine nous concerne directement. Voici pourquoi, et quoi faire.
Il y a dix ans, on s’inquiétait de la concentration des moteurs de recherche. Google capturait 90% des requêtes mondiales, orientait les clics, façonnait invisiblement ce que des milliards de personnes considéraient comme pertinent. C’était déjà un pouvoir considérable. Mais Google donnait des liens. Il nous renvoyait vers d’autres sources, d’autres voix, d’autres points de vue. Nous pouvions cliquer, comparer, douter.
Les grands modèles de langage font quelque chose de fondamentalement différent. Ils ne nous donnent pas des liens mais une réponse. Une seule. Formulée avec assurance, dans notre langue, calibrée sur nos habitudes. Sans référence visible, sans contradicteur, sans l’inconfort salutaire du choix.
Ce glissement est en train de se produire à une vitesse que peu d’organisations ont vraiment mesurée. ChatGPT dépasse les 900 millions d’utilisateurs par semaine. Des millions de professionnels posent chaque jour à ces systèmes des questions sur lesquelles ils vont prendre des décisions, qu’elles soient stratégiques, juridiques, médicales ou techniques. Le LLM est en train de devenir le premier point de contact avec la connaissance. On a eu tendance à le penser un outil parmi d’autres mais c’est devenu indéniablement une infrastructure cognitive.
Or cette infrastructure est détenue par un nombre très restreint d’acteurs. Américains pour la plupart. De plus en plus alignés avec le pouvoir politique qui les accueille. Et construits sur des architectures dont ni les biais, ni les valeurs, ni les intérêts ne sont transparents pour ceux qui les utilisent.
Arthur Mensch, cofondateur de Mistral AI, l’a dit avec une clarté qui mérite qu’on s’y arrête : « Si demain nous étions dans un monde où deux entités possédaient les portails d’information, cela leur donnerait un pouvoir excessif de contrôle de la pensée qui n’est pas du tout compatible avec le maintien de la démocratie. »
On pourrait balayer cette déclaration comme le discours attendu d’un entrepreneur qui a tout à gagner à critiquer ses concurrents américains. Sauf que les événements des dernières semaines sont venus lui donner une démonstration que personne n’avait anticipée aussi brutalement.
La thèse Mensch, et pourquoi elle est plus sérieuse qu’elle n’y paraît
La concentration du pouvoir informationnel par quelques acteurs technologiques n’est pas une idée neuve. Shoshana Zuboff, professeure à Harvard, en posait les fondements dès 2019 dans son travail sur le capitalisme de surveillance. Sa thèse centrale : les plateformes numériques ne vendent pas des produits, elles captent et monétisent les comportements humains à une échelle sans précédent. Avec les LLMs, ce mécanisme franchit un seuil supplémentaire. On ne capte plus seulement ce que vous faites, on façonne aussi ce que vous pensez savoir.
Timnit Gebru l’a appris à ses dépens. Chercheuse en éthique de l’IA chez Google, elle a été licenciée en 2020 après avoir publié une recherche critique sur les grands modèles de langage. Un modèle construit majoritairement sur du texte anglophone, produit par des institutions occidentales, n’est pas neutre. Il a une vision du monde. Et cette vision, à l’échelle de centaines de millions d’utilisateurs, devient une forme de norme cognitive. Le fait qu’elle ait été réduite au silence pour l’avoir dit est en soi un argument.
Yann LeCun, qui a dirigé la recherche IA de Meta pendant douze ans, tient le même discours depuis l’intérieur cette fois. Avant même de quitter Meta fin 2025 pour fonder sa propre startup, il martelait que concentrer le contrôle des modèles les plus puissants entre quelques mains serait une catastrophe pour la diversité intellectuelle mondiale. Sa réponse : l’open source radical, le partage des poids des modèles.
Ce qui rend la thèse de Mensch particulièrement sérieuse, ce n’est donc pas qu’elle est originale. C’est qu’elle est partagée par des gens qui n’ont aucune raison évidente de se ménager. Zuboff l’a documentée depuis les sciences sociales. Gebru l’a portée au prix de sa carrière. LeCun l’a défendue depuis l’intérieur d’un géant américain. On voit là une convergence de gens qui connaissent le système de l’intérieur.
Le constat est le suivant : un LLM n’est pas un outil passif. C’est un système qui opère des choix éditoriaux à chaque réponse : sur ce qu’il inclut, ce qu’il omet, comment il formule, quel registre il adopte, quelles sources il considère comme légitimes. Ces choix sont invisibles pour l’utilisateur. Ils sont le produit de décisions d’entraînement prises par des équipes dans des entreprises soumises à des pressions commerciales, culturelles et désormais politiques. Et ils s’appliquent à une échelle que n’a jamais atteinte aucun média dans l’histoire humaine.
C’est sur ce dernier point que Mensch insiste le plus : le mécanisme d’influence des LLMs est selon lui décuplé par rapport aux réseaux sociaux. Un réseau social vous expose à du contenu et vous restez libre d’en douter. Un LLM vous donne une synthèse qui semble objective, dans une voix sans auteur. La résistance critique est structurellement plus difficile
La démonstration en temps réel : quand la théorie devient politique
Pendant longtemps, le risque décrit par Mensch est resté dans le domaine du possible. Une hypothèse sérieuse, documentée, mais encore abstraite pour la plupart des décideurs. L’administration Trump a eu le mérite involontaire de le rendre concret.
Janvier 2025. Au premier rang de la cérémonie d’investiture de Donald Trump : Sam Altman, Jeff Bezos, Mark Zuckerberg, Sundar Pichai, respectivement PDG d’OpenAI, Amazon, Meta et Alphabet (Google). Cette image aurait semblé impensable quelques années auparavant. Les dirigeants des entreprises les plus puissantes du monde numérique se sont réunis pour célébrer l’arrivée au pouvoir d’un homme qu’une grande partie d’entre eux avaient publiquement critiqué lors de son premier mandat. Quelque chose avait changé. L’IA avait changé les calculs.
C’est ce basculement qui rend la thèse de Mensch beaucoup moins abstraite. Les entreprises technologiques choisissent aujourd’hui délibérément l’alignement politique plutôt que la distance.
L’histoire ne s’arrête évidemment pas là. Six mois plus tard, Trump dévoile son AI Action Plan lors d’un sommet intitulé « Winning the Race ». Le document est explicite : les États-Unis doivent « exporter leur full AI tech stack » au monde entier, faute de quoi ce serait une « erreur non forcée ». La National Security Strategy américaine enfonce le clou : « Nous voulons nous assurer que la technologie américaine et les standards américains et ce, particulièrement dans l’IA, propulsent le monde vers l’avant. »
Ce n’est plus du tout une politique industrielle comme on en a connu. C’est une politique d’influence assumée.
Dans le même mouvement, Trump signe en décembre 2025 un executive order visant à neutraliser les lois IA adoptées par 38 États américains. Ces lois imposaient des garde-fous sur la discrimination algorithmique, sur la transparence des modèles, et sur la protection des consommateurs. Quels étaient les bénéficiaires directs ? Nuls autres qu’OpenAI et Google, qui avaient lobbyé pour cette fédéralisation et qui avaient dépensé au moins 100 millions de dollars via des super PACs (comités de financement politique indépendants) pour influencer les élections de mi-mandat.
Vous la voyez la boucle qui se boucle enfin ?
Les entreprises financent les élections, les élus déréglementent au bénéfice des entreprises, les modèles restent opaques. Et le cycle recommence.
Un autre executive order demande aux agences fédérales d’acheter uniquement des modèles IA produisant des réponses « non-partisanes ». En apparence, c’est raisonnable. Mais en réalité, c’est l’administration elle-même qui définit ce qui est partisan ou non. Le Brennan Center for Justice l’a analysé clairement : un modèle qui présente le consensus scientifique sur le changement climatique sera jugé « idéologique » par une administration qui le conteste. Un modèle qui le minimise sera considéré comme « neutre ». Un contrôle informationnel par la redéfinition de ce qui est vrai. Pratique.
Il faut ajouter à ce tableau un élément structurel que trop peu de décideurs européens ont intégré : le Cloud Act américain de 2018.
Cette loi autorise le gouvernement américain à exiger l’accès aux données de toute entreprise américaine, où que soient localisés ses serveurs.
Oui, y compris en Europe.
Oui, y compris chez des clients qui croyaient leurs données protégées par le RGPD.
Donc, quand une entreprise française utilise ChatGPT Enterprise ou Gemini for Workspace via des serveurs localisés à Paris ou Francfort, elle opère dans un espace où le droit américain peut s’exercer. Nous ne sommes pas dans l’ordre de la menace hypothétique. C’est bien le droit en vigueur, aujourd’hui, pendant que vous lisez ces lignes.
Ce tableau prendrait peut-être encore l’allure d’une tendance lointaine pour beaucoup d’entreprises européennes, si les semaines qui viennent de s’écouler n’en avaient pas produit une démonstration autrement plus brutale. Et si des réponses concrètes n’existaient pas déjà pour ceux qui choisissent d’anticiper plutôt que de subir.
L’affaire Anthropic : quand le risque devient réel et daté
Fin février 2026. Anthropic, l’entreprise américaine créatrice de Claude, considérée par beaucoup comme la plus sérieuse sur les questions de sécurité IA, est la seule dont le modèle frontier est déployé sur les réseaux classifiés du Pentagone. Un contrat de 200 millions de dollars, signé en juillet 2025, qui faisait d’elle le fournisseur IA de référence de l’armée américaine.
Le Pentagone exige alors qu’Anthropic lève ses garde-fous pour un usage « all lawful », autrement dit, sans restriction. Deux lignes rouges qu’Anthropic refuse de franchir : l’utilisation de Claude dans des systèmes d’armes entièrement autonomes (sans aucune supervision humaine), et la surveillance de masse des citoyens américains. Des positions qu’on pourrait croire consensuelles. Elles ne l’étaient pas pour l’administration Trump.
Après des semaines de négociations, le secrétaire à la Défense Pete Hegseth pose un ultimatum à Anthropic. Réponse attendue 17h01 un vendredi. Anthropic ne cède pas. Dans les heures qui suivent, Trump ordonne à toutes les agences fédérales de cesser d’utiliser les outils d’Anthropic. Hegseth désigne l’entreprise « supply chain risk to national security » qui est un statut normalement réservé aux adversaires étrangers comme Huawei ou ZTE. OpenAI signe dans la foulée un accord avec le Pentagone pour reprendre le contrat sans rendre public le contenu de cet accord.
Ce n’est pas sans ironie : Dario Amodei, PDG d’Anthropic, publiait le 26 janvier un essai identifiant la « consolidation autoritaire » comme risque existentiel majeur de l’IA. Six semaines plus tard, son entreprise est blacklistée par l’administration américaine pour avoir précisément refusé d’y contribuer.
Pour un lecteur européen, cette séquence pourrait sembler lointaine. Une querelle américaine entre une administration autoritaire et une entreprise tech idéaliste. Ce serait passer à côté de ce qui s’est réellement produit.
Il faut comprendre que la désignation « supply chain risk » ne construit pas un mur autour d’une seule entreprise, elle empoisonne le puits pour tout le monde en aval. Concrètement, toute entreprise ayant un contrat avec le Pentagone, directement ou indirectement, doit certifier qu’elle n’utilise pas les produits Anthropic dans ce périmètre. Or la chaîne de sous-traitance militaire américaine est longue et tentaculaire. Elle touche Airbus, Thales, Safran, Capgemini et des dizaines d’autres acteurs européens qui ont des contrats, des partenariats ou des filiales exposées au marché de défense américain. Des entreprises qui, pour beaucoup, avaient intégré Claude dans leurs workflows au cours des derniers mois, Anthropic ayant ouvert des bureaux en France et en Allemagne fin 2025 pour répondre à une demande européenne croissante.
Ce que ces entreprises ont découvert, c’est qu’un outil qu’elles utilisaient quotidiennement pouvait disparaître de leur périmètre contractuel en 48 heures parce qu’une décision politique américaine avait reconfiguré l’ensemble de la chaîne de dépendance.
C’est précisément ce que les DSI et directeurs achats ne modélisent pas encore dans leurs analyses de risque fournisseur. On évalue la fiabilité technique, la solidité financière, la conformité RGPD et c’est très bien. Mais on n’évalue pas le risque politique comme variable d’exposition.
L’affaire Anthropic vient de démontrer que c’est bien une lacune à laquelle on peut faire face aujourd’hui.
Le sénateur Mark Warner, vice-président du Comité du Renseignement du Sénat américain, a lui-même déclaré que la décision soulevait « de sérieuses questions sur le fait que les décisions de sécurité nationale sont guidées par des considérations politiques » et que les actions contre Anthropic pourraient être « un prétexte pour orienter les contrats vers un fournisseur préféré », en l’occurrence xAI d’Elon Musk. Quand un sénateur américain dit publiquement que les contrats IA du Pentagone sont potentiellement attribués selon des critères politiques plutôt que techniques, c’est une information que tout décideur IT devrait avoir lue.
Ce risque n’est pas une fatalité. Des architectures existent pour s’en prémunir, à condition de les construire avant que la crise ne se présente, pas pendant.
La troisième voie ou la dépendance
Cette affaire pose une question que beaucoup de pays et d’organisations avaient déjà commencé à se poser : à qui faire confiance pour son infrastructure cognitive ?
Le débat est souvent présenté comme un choix entre modèles américains et modèles chinois. Ce n’est pas la bonne question.
Janvier 2025 : DeepSeek, une startup chinoise relativement inconnue, publie R1, un modèle open source dont les performances rivalisent avec les meilleurs modèles américains, entraîné à une fraction du coût. Le « moment DeepSeek » entre dans le vocabulaire de l’industrie comme révélateur d’une nouvelle réalité : on peut obtenir des performances de premier rang sans les milliards d’OpenAI. Dans les mois qui suivent, Alibaba publie Qwen, également en open source. Ces modèles deviennent la base de la recherche académique et de l’adoption industrielle dans de nombreuses régions, comme le monde arabe, l’Asie du Sud-Est, l’Afrique, qui n’avaient jusqu’alors accès qu’aux modèles américains fermés ou à leurs dérivés.
Vous vous doutez bien que la Chine ne fait pas ça par idéalisme. Pas plus que les États-Unis ne développent leur stack IA par philanthropie. Ce sont deux puissances qui poursuivent leurs intérêts stratégiques. Leurs motivations diffèrent mais la logique de fond est identique : celui qui fournit l’infrastructure cognitive d’une organisation ou d’un pays acquiert sur elle une forme de pouvoir durable. C’est vrai pour Washington. C’est vrai pour Pékin. Et ce serait vrai pour n’importe quelle autre puissance qui occuperait cette position.
La souveraineté IA n’est pas une revendication européenne, c’est un principe universel. Le GCC a engagé plus de 30 milliards de dollars dans des infrastructures IA souveraines. L’Inde s’est fixé un objectif de souveraineté full stack en 3 à 5 ans. Ces initiatives sont réelles. Et elles se heurtent toutes au même mur : le compute. Les GPU, les datacenters, le silicium. Sarvam, le modèle phare de la souveraineté indienne, a été construit sur Mistral. Beaucoup de « clouds souverains » du GCC tournent sur Microsoft Azure ou Google Cloud avec un drapeau local. La souveraineté déclarée et la souveraineté réelle sont deux choses différentes et l’écart entre les deux ramène toujours à la même question : qui contrôle le silicium ?
Tant que cette couche reste concentrée entre les mains d’un nombre très restreint d’acteurs, la souveraineté des modèles reste partielle. C’est le vrai chantier. Et il concerne tout le monde, pas seulement l’Europe.
La vraie question n’est pas « américain ou chinois ». C’est : à quel niveau de ma chaîne suis-je réellement dépendant ?
Souveraineté : le mot qui cache trois problèmes différents
Le mot « souveraineté » est devenu un fourre-tout. Tout le monde s’en réclame, peu de gens le définissent. Or derrière ce mot se cachent trois problèmes distincts qui appellent trois réponses distinctes. Les confondre c’est assurément ne résoudre aucun des trois.
Le premier problème, c’est la donnée :
Où sont physiquement stockées vos données ? Sous quelle juridiction ? Beaucoup d’entreprises françaises et européennes ont répondu à cette question en choisissant des hébergeurs locaux, comme OVHcloud, Outscale, des offres « cloud souverain » de Microsoft ou Google avec des serveurs localisés en Europe. C’est nécessaire. Ce n’est pas suffisant. Le Cloud Act s’applique indépendamment de la localisation des serveurs. L’hébergement souverain sans modèle souverain, c’est un premier pas mais c’est une souveraineté de façade.
Le deuxième problème, c’est le modèle :
Quel système traite vos données, formule vos réponses, oriente vos décisions ? C’est là que se situe l’essentiel du débat sur Mistral, DeepSeek, Llama. Un modèle open source déployé on-premise sur votre propre infrastructure, dont vous pouvez auditer les poids et le comportement, offre une garantie que ne peut pas donner un modèle propriétaire accessible uniquement via API. Mistral Large 3 est aujourd’hui crédible en production. BNP Paribas, AXA, CMA CGM l’utilisent en environnement réel. La licence Apache 2.0, le déploiement on-premise, le contexte 256K tokens, le multilinguisme natif : les arguments techniques sont là. Mais choisir le bon modèle ne résout pas tout.
Le troisième problème (et c’est celui dont on parle le moins) c’est l’interface :
Par quels tuyaux vos données arrivent-elles jusqu’au modèle ? Via quels connecteurs, quelles APIs, quels systèmes intermédiaires ? C’est ici que se loge la dépendance la plus invisible et la plus difficile à défaire. OpenAI a construit des intégrations natives dans Microsoft 365, Salesforce, SAP, ServiceNow. Ces connecteurs ne sont pas des détails techniques : ce sont des points de contrôle. Une entreprise qui déploie un modèle européen, mais dont les données transitent par des pipelines Microsoft ou Salesforce, n’a pas résolu son problème de dépendance. Elle a changé la voiture mais pas les routes.
Ce mécanisme n’est pas nouveau. C’est exactement ce que l’économiste grec Yanis Varoufakis décrit dans Technoféodalisme : on ne vous facture pas l’accès au marché, on vous facture votre incapacité à le quitter. Les connecteurs natifs OpenAI dans vos systèmes ne sont pas des fonctionnalités, ce sont des liens de vassalité.
C’est précisément ce que l’histoire du Cloud aurait dû nous apprendre. Dans les années 2010, beaucoup d’entreprises européennes ont cru répondre à la question de la souveraineté en choisissant des datacenters localisés en Europe. Elles n’avaient pas vu que la vraie dépendance ne se situait pas dans la géographie des serveurs, mais dans le contrôle des interfaces d’accès : les APIs, les SDK, les formats propriétaires qui rendaient toute migration extrêmement coûteuse. Dix ans plus tard, le même piège se referme, avec les LLMs comme nouveau verrou.
La vraie question souveraine n’est donc pas « quel modèle choisir ». C’est : à quel niveau de la chaîne se situe ma dépendance réelle ? Et quelle couche puis-je reprendre en main, de manière réaliste, dans mon contexte ?
L’honnêteté sur le coût de bascule
Maintenant que j’ai dit tout ça, il faut poser quelque chose d’important, que la plupart des discussions sur la souveraineté IA évitent : basculer vers des alternatives souveraines a un coût réel et pour beaucoup d’entreprises, ce coût n’est pas raisonnable à court terme.
Mistral est totalement crédible en production, on l’a dit. Mais la qualité du modèle n’est pas le principal obstacle. C’est surtout l’écosystème qui fait défaut. OpenAI ne s’est pas imposé uniquement parce que ses modèles sont bons. Il s’est imposé parce que ses intégrations sont partout. Un DSI qui travaille dans un environnement Microsoft 365 dispose aujourd’hui de Copilot intégré nativement dans Word, Teams, Outlook, Excel. Un directeur commercial sur Salesforce a Einstein AI à portée de clic. Ces intégrations ont été construites sur des années, avec des investissements considérables, par des éditeurs qui ont misé très tôt sur OpenAI comme couche d’intelligence par défaut.
Demander à une ETI de 500 personnes de reconstruire ces connecteurs pour basculer sur Mistral, c’est lui demander un projet de 6 mois minimum avec des équipes techniques qu’elle n’a peut-être pas, pour un résultat dont elle devra assurer la maintenance dans la durée. Mon argument ici n’est pas contre la souveraineté mais un argument contre l’injonction irréaliste.
Ensuite, il y a un niveau de dépendance encore plus profond que les connecteurs applicatifs, celui du silicium (qui mériterait un article à part). On peut choisir Mistral, déployer on-premise, construire ses propres pipelines de données. Si l’infrastructure tourne sur des GPU NVIDIA, dans des datacenters qui dépendent de composants dont la chaîne d’approvisionnement est américaine ou taïwanaise, la souveraineté reste partielle. Attention, ce n’est pas une raison de ne rien faire, c’est une raison de ne pas se raconter d’histoires sur ce qu’on a réellement accompli quand on a changé de modèle.
Avec tout ce que je dis, je ne signifie pas qu’il faut attendre. Je dis qu’il faut être lucide sur ce que chaque décision résout réellement et sur ce qu’elle ne résout pas.
La bonne nouvelle, c’est que la lucidité elle-même est déjà une posture stratégique. Ne pas aller plus loin dans le verrouillage est une décision. Cartographier ses dépendances actuelles avant d’en contracter de nouvelles est une décision. Exiger de ses intégrateurs qu’ils proposent des alternatives interopérables est une décision. Aucune de ces actions ne demande de tout reconstruire. Elles demandent de ne plus subir passivement une situation dont on a maintenant les outils pour comprendre les enjeux.
L’affaire Anthropic a rendu un service involontaire à tous les décideurs IT européens. Elle a montré, de manière concrète et datée, que la dépendance envers un fournisseur IA n’est pas seulement un risque technique ou commercial. C’est aussi un risque politique. Et les risques politiques ne se gèrent pas avec un contrat SLA.
Ce qu’on peut faire, concrètement
La question, maintenant, est de savoir ce qui peut se faire aujourd’hui.
Les préconisations qui suivent partent d’un constat simple : la dépendance va durer, les solutions complètes n’existent pas encore et la responsabilité est partagée entre trois niveaux qui ne se parlent pas assez.
Aux entreprises : ne pas aggraver la situation
Ma première préconisation n’est pas « migrons sur Mistral ». C’est : arrêtons de creuser. Chaque nouveau workflow critique hardcodé sur une API propriétaire, chaque nouveau contrat pluriannuel signé sans clause de portabilité, chaque intégration native acceptée sans évaluation des alternatives, sont un verrou supplémentaire qui rendra la migration plus coûteuse demain.
Concrètement, cela signifie trois choses.
D’abord, auditer ses dépendances IA comme on audite une dépendance cloud, c’est-à-dire cartographier ce qui est critique, ce qui est expérimental et identifier où se situe la vraie dépendance : dans le modèle, dans les connecteurs ou dans les deux.
Ensuite, construire ou exiger des architectures model-agnostic sur les nouveaux projets. Ce sont des couches d’abstraction qui permettent de changer de fournisseur sans tout reconstruire. La crise Anthropic a montré que les entreprises qui avaient fait ce choix architectural ont changé trois lignes de configuration là où d’autres ont passé des semaines en urgence.
Enfin, tester Mistral sur au moins un cas d’usage réel en production. Oubliez les POC de laboratoire, je parle de déploiement opérationnel. L’idée n’est pas de remplacer immédiatement l’existant mais de construire la compétence interne qui permettra d’agir quand le contexte l’imposera.
Aux intégrateurs et éditeurs : c’est un marché, pas de la philanthropie
Le manque de connecteurs natifs pour Mistral dans les grands écosystèmes applicatifs n’est pas une fatalité. C’est un espace de marché non occupé. Microsoft a déjà intégré Mistral dans Azure AI Foundry par exemple et c’est le bon modèle qui devrait être généralisé. Les intégrateurs SAP, Salesforce, ServiceNow européens qui construiront des connecteurs pour modèles locaux clé en main auront un avantage compétitif réel sur un marché où la demande de souveraineté va croître, poussée par la réglementation et par des événements comme celui qu’on vient de décrire.
La question n’est plus « nos clients ont-ils besoin d’alternatives souveraines ? » clairement oui. C’est plutôt « qui va construire les ponts en premier ? »
Aux décideurs politiques et industriels européens : le vrai nœud
La réglementation peut faire ce que le marché ne fera pas seul : imposer l’interopérabilité. De la même façon que le RGPD a forcé une standardisation des pratiques de données, un cadre réglementaire qui impose la portabilité des connecteurs IA ou bien le droit de migrer d’un fournisseur à l’autre sans perdre ses intégrations, changeraient structurellement le rapport de force. C’est exactement ce que le Digital Markets Act essaie de faire pour les plateformes. Le même raisonnement s’applique aux couches IA.
Mais la réglementation ne suffira pas si le problème du compute n’est pas adressé. Investir dans l’infrastructure GPU européenne n’est pas un luxe industriel. Il est la condition sine qua non d’une souveraineté qui n’est pas que déclaratoire. Sans capacité de calcul propre, tous les modèles open source du monde restent dépendants d’une infrastructure que l’Europe ne contrôle pas. C’est le vrai enseignement de ce que le GCC et l’Inde sont en train de découvrir à leurs dépens.
Enfin, et c’est peut-être la préconisation la plus contre-intuitive, l’Europe devrait transformer l’AI Act d’obstacle en avantage compétitif.
Le réflexe dominant, aujourd’hui, est de le défendre sur le registre de la prudence. C’est, à mon sens, le mauvais angle. Le bon angle est celui de la confiance : « nos produits sont conformes à l’AI Act et pour vous c’est une garantie que vos autres fournisseurs ne peuvent pas offrir. »
La distinction est importante. Une banque qui utilise l’IA pour analyser des dossiers de crédit, un hôpital qui automatise des décisions de triage, une administration publique qui déploie un assistant sur des données sensibles : toutes ces organisations ne peuvent pas se permettre des systèmes opaques. Elles ont besoin de traçabilité, d’explicabilité, de conformité réglementaire. Pour elles, l’AI Act n’est pas une contrainte supplémentaire, il est un critère de sélection. Et un fournisseur conforme à ce cadre dispose, sur ces marchés-là, d’un avantage structurel que les acteurs américains ou chinois pourraient tout à fait atteindre, à condition que les règles soient claires, appliquées, et que l’Europe choisisse de les faire respecter.
C’est exactement ce que le RGPD a produit pour certaines entreprises européennes de gestion de données : ce qui semblait être un handicap compétitif est devenu un argument commercial sur des marchés où la protection des données a une valeur réelle. L’AI Act peut suivre le même chemin si l’Europe choisit de le vendre comme une force plutôt que de s’en excuser.
Conclusion
On revient à la question posée par Arthur Mensch le 14 janvier 2026 à l’École Polytechnique. Si deux entités contrôlent les portails d’information, c’est incompatible avec la démocratie. Finalement, c’était un diagnostic formulé en temps réel alors que les faits s’accumulaient déjà.
Ce qui s’est passé avec Anthropic n’est pas une anomalie. C’est la répétition générale. La prochaine fois, ce ne sera peut-être pas un conflit sur les armes autonomes. Ce sera peut-être une décision commerciale, un changement de conditions d’utilisation, une acquisition, une faillite. Les formes que peut prendre la rupture d’une dépendance sont nombreuses. Ce qui ne change pas, c’est la vulnérabilité structurelle de ceux qui n’ont pas anticipé.
La bonne nouvelle, et il faut finir sur ce point, c’est que la fenêtre n’est pas fermée. Contrairement au Cloud, où les positions ont mis dix ans à se figer, l’écosystème IA est encore en train de se construire. Les standards d’interfaçage ne sont pas encore écrits. Les connecteurs ne sont pas encore tous propriétaires. Les modèles open source de qualité production existent. La réglementation européenne, imparfaite, est au moins un cadre à partir duquel on peut construire.
Mais cette fenêtre se referme. Et contrairement au Cloud, personne ne pourra dire qu’il ne savait pas.
La souveraineté IA ne se décrète pas dans un sommet. Elle se construit choix par choix, contrat par contrat, architecture par architecture. Et elle commence par une décision que chaque DSI, chaque directeur achats, chaque décideur peut prendre dès aujourd’hui : celle de ne plus subir passivement une dépendance dont on comprend maintenant exactement les mécanismes.
Qui contrôle le modèle contrôle l’information. Qui contrôle l’information influence la pensée. C’est le monde dans lequel nous opérons et dans lequel nous pouvons encore choisir notre place.
_____________________________
Par Azza Jabnoun, Directrice Data Transformation chez SQORUS
_____________________________





puis