L’intelligence artificielle franchit un seuil où l’optimisation, l’autonomie des agents et la vitesse d’exécution bousculent déjà les cadres de décision humains. Entre super intelligence, gouvernance des usages critiques et exigence de supervision, l’enjeu n’est plus seulement d’innover, mais de fixer des lignes rouges vérifiables avant que la performance ne supplante le discernement.

Faisant écho au Global Call for AI Red Lines quelques semaines auparavant, plus de 800 personnalités, scientifiques et entrepreneurs, ont lancé un appel fin octobre pour demander l’arrêt de la course à la « super intelligence artificielle », une forme d’IA qui pourrait bien surpasser les capacités intellectuelles humaines d’ici quelques années. Dans un cas comme dans l’autre, les signataires de renoms, parmi lesquels des Prix Nobel et d’anciens chefs d’Etats, veulent éveiller les consciences sur les dangers d’une IA débridée et protéger l’humanité des « conséquences irréversibles » de ses mauvais usages en instaurant des lignes rouges au niveau international.

La multiplication des appels en ce sens fait ainsi rejaillir un vieux mythe, enfoui dans notre inconscient collectif depuis la nuit des temps : celui de voir l’homme perdre le contrôle de la machine qu’il a créée. Et il faut bien le reconnaître, sans régulation de notre part, le rythme vertigineux auquel se succèdent les innovations pourrait bientôt transformer cette peur primitive en réalité.

Les machines communiquent entre elles et prennent des décisions

Car aujourd’hui, l’intelligence artificielle n’est plus l’outil d’aide à la décision qu’elle devrait être, utilisée tantôt pour traduire un texte, tantôt pour améliorer une offre commerciale. Désormais l’IA agit, apprend, arbitre. Elle peut créer des molécules, réécrire du code informatique, détecter des vulnérabilités en matière de cybersécurité ou réallouer les ressources d’une entreprise. Cela va même plus loin : les machines communiquent entre elles, collaborent, s’auto-corrigent, prennent des décisions, parfois sans la moindre supervision humaine. Les performances techniques de l’IA évoluent bien plus vite que notre capacité à la comprendre, à l’encadrer et à en mesurer les effets : agents autonomes, intelligence artificielle générale (AGI), superintelligence… Le chemin vers des IA “raisonnantes” est tout tracé.

En outre, la cadence imposée par toutes ces avancées modifie notre rapport au temps et à la décision : l’homme accélère, simplifie, adapte ses processus pour rester “IA-compatible”, souvent sans interroger la finalité de ses choix. A tel point que la vitesse d’exécution a remplacé la réflexion. Or, l’efficacité n’est pas une valeur morale. Et une IA est parfaitement capable de produire une décision optimale selon la logique de la performance tout en violant des principes humains fondamentaux : elle peut ainsi privilégier la rentabilité au détriment de la sécurité, ou prioriser l’énergie au prix de la biodiversité.

Certains géants de la tech, tels que Google DeepMind avec sa mise à jour « Frontier Safety Framework » de 2024, se sont déjà penchés sur ce problème de manière très concrète et testent la “résistance à l’arrêt” de l’IA. C’est-à-dire sa capacité à s’affranchir des limites qui lui sont imposées, notamment lorsque ces limites sont contradictoires ou les empêchent d’exécuter certaines consignes. L’IA est alors « contrainte » de faire un choix, celui-ci n’étant pas nécessairement le plus compatible avec des valeurs humaines.

Les quatre lois de l’IA

Face à de tels biais, l’humain ne peut se réduire à un simple rôle de contrôleur administratif. Il doit rester le centre de gravité moral de toute décision. Si l’IA peut tout faire ou presque, elle ignore en revanche le « pourquoi », qui distingue l’action désincarnée de la machine du discernement humain. À l’instar d’Isaac Asimov et de ses lois de la robotique, il est donc devenu urgent d’édicter des règles minimales d’intervention humaine, non négociables et vérifiables dans tous les processus impliquant une IA.

Quatre garde-fous concrets peuvent être instaurés : le droit d’interruption absolu, selon lequel toute IA doit pouvoir être arrêtée, sans exception ; une traçabilité explicite, pour que chaque décision algorithmique puisse être documentée et auditable ; une supervision contextuelle, afin que tout usage critique (santé, finance, sécurité) ou faisant partie d’un processus stratégique d’une entreprise intègre un point de validation humaine ; et un principe de non-délégation morale, pour qu’aucun système ne puisse agir sur la base d’un critère purement utilitaire sans contrôle éthique.

La France a déjà prouvé qu’elle savait conjuguer innovation et éthique. Les lois de bioéthique, adoptées depuis 1994, ont su encadrer la recherche médicale sans freiner l’innovation. Elles ont posé une règle simple : le progrès n’a de sens que s’il reste gouverné par le respect du vivant. L’IA mérite le même équilibre : une ambition guidée par la conscience.

Certaines institutions, principalement aux niveaux des collectivités, montrent la voie. La Ville de Genève, par exemple, a adopté une charte de gouvernance de l’IA imposant transparence publique, supervision humaine et évaluation annuelle. Plusieurs métropoles françaises (Lyon, Paris, Nantes) expérimentent également des chartes éthiques et des registres d’algorithmes qui posent des règles claires et lisibles. Ces initiatives précurseurs gagneraient à être fédérées dans un cadre national, adossé à l’inventaire des algorithmes publics de l’ODAP et aligné sur les principes européens du AI Act, afin que la régulation ne devienne pas un frein, mais au contraire un levier de confiance et de compétitivité.

Un défi politique et humain

Le défi n’est pas que technologique, il est aussi et avant tout politique et humain. Comme le pressentait Stephen Hawking, le danger de l’intelligence artificielle ne réside pas tant dans sa malveillance que dans sa compétence sans conscience. Cela signifie que l’urgence n’est pas de rendre l’IA plus performante, mais de rendre nos sociétés plus exigeantes dans la manière de la concevoir, de l’utiliser et de la contrôler.

Apprendre à utiliser l’IA avec mesure, sobriété et sens, c’est refuser la fuite en avant des modèles et algorithmes géants au profit d’approches plus locales – tant au niveau des infrastructures que des institutions – plus économes et plus utiles. Chaque watt d’énergie consommé, chaque donnée traitée dans le cadre d’une requête à une IA devrait répondre à une utilité réelle et humaine. Il en va de notre responsabilité, et cette responsabilité ne s’arrête pas à notre génération. C’est notre rôle et notre devoir de transmettre une intelligence du monde lucide, maîtrisée et respectueuse de ses limites.

___________________________

Par Julien Doutremépuich, COO et Directeur France de Quant AI Lab

 

À lire également :

Lutter contre l’IA fantôme : comment les organisations peuvent repenser leur gouvernance de l’IA

Vibe Coding et IA générative : vers une nouvelle gouvernance de la sécurité logicielle

Gouvernance de l’IA générative : le secteur public face aux défis de l’éthique

L’IA de l’ombre à la lumière : comment le stockage façonne transparence et confiance durables ?

Deux concepts fondamentaux de l’IA : transparence et explicabilité