Vendredi, après d’âpres discussions, le Conseil de l’UE, le parlement européen et la Commission européenne ont trouvé un accord sur un texte commun qui doit encadrer le fameux AI Act européen régulant le développement et l’utilisation de l’IA.

« L’Union Européenne devient le tout premier continent à définir des règles claires sur l’utilisation de l’IA » s’est félicité Thierry Breton, commissaire européen et chef d’orchestre du projet, dans un Tweet. « L’AI Act européen est bien plus qu’un simple règlement : c’est une rampe de lancement pour les startups et les chercheurs de l’UE, qui pourront ainsi prendre la tête de la course mondiale à l’IA » se réjouit il.

Les discussions ont été houleuses entre les partisans de « l’IA va tous nous tuer, il faut en limiter les développements », ceux du « l’IA est une formidable arme d’espionnage et de manipulation des personnes » et ceux du « l’IA fait avancer l’humanité, régulons ses usages mais laissons de la marge à la R&D pour permettre à l’Europe d’exister sur ce thème ». On carricature un peu, mais c’est l’idée générale.

Un accord mais pas de texte

Les propositions approuvées Vendredi dernier doivent servir de fondation à un futur règlement sur l’Intelligence Artificielle, l’European AI Act, qui doit être voté par le Parlement européen et le Conseil européen en 2024 pour une entrée en vigueur en 2025.

Reste que si un « accord politique » a été conclu afin de « favoriser l’innovation en Europe tout en limitant les possibles dérives de l’IA », aucun texte n’a été publié tant il reste de nombreux détails à régler.

Car tout le cœur du projet repose sur un concept encore flou « d’IA à haut risque », autrement dit les IA qui impactent des sujets clés de maintien de l’ordre, des sujets de société et humains, comme l’éducation, les RH, le pilotage d’infrastructure critique, etc.
Le projet impose un contrôle humain sur toute opération IA, l’existence d’une documentation technique, l’intégration d’une gestion du risque.

Peu d’interdictions pour l’instant
C’est sur ces IA que se focaliseront les futures interdictions. Sont notamment déjà interdites dans le projet :
– les IA de surveillance de masse et la « police prédictive »,
– les IA de reconnaissance d’émotions massive, notamment les systèmes de reconnaissance d’émotions dans les lieux publics, le lieu de travail ou dans l’éducation,
– l’identification biométrique de masse à distance (sauf pour les forces de l’ordre dans leurs missions de lutte contre le terrorisme, lutte contre le trafic d’humains et l’exploitation sexuelle, lutte contre les enlèvements, lutte contre les crimes religieux et politiques),
– les systèmes IA de notation citoyenne ou sociale
– les dispositifs de manipulation du comportement

Des IA plus transparentes

Le texte s’inquiète notamment des « modèles fondation » et veut imposer des obligations de transparence notamment avec la publication des sources des données d’entraînement, l’évaluation des risques systémiques, l’évaluation de la cybersécurité, la publication de rapport sur la consommation énergétique, etc.
Pour favoriser le développement en Europe, les IA en open source échapperont en grande partie aux contraintes imposées par l’AI Act tant qu’elles n’entrent pas dans le champ des « IA à haut risque ».

Par ailleurs, l’AI Act fait un cas particulier des IA génératives et d’une manière générale de tout IA interagissant directement avec les utilisateurs. Le règlement obligera entreprises et organisations publiques à indiquer à l’utilisateur qu’il est en relation avec une machine et tout contenu généré par une IA devra être identifié comme tel.

Une gouvernance européenne de l’IA

Au-delà du ce futur règlement, l’Europe va se doter d’un « Bureau de l’IA » au sein de la Commission Européenne. Il devra notamment veiller à la mise en œuvre des dispositions et à la surveillance des modèles fondation.
Néanmoins, les systèmes IA et l’application de la Loi resteront supervisés par les autorités nationales compétentes (probablement la CNIL en France) qui seront réunies au sein d’un Comité européen sur l’IA qui devra assurer la cohérence des législations à travers l’UE autrement dit la cohérence des applications locales de l’AI Act.

Des acteurs de la Tech inquiets

Comme on pouvait s’y attendre, les flous laissés par cet accord et l’absence d’une publication détaillée des mesures envisagées inquiètent les acteurs de la Tech. « La rapidité semble avoir prévalu sur la qualité, avec des conséquences potentiellement désastreuses pour l’économie européenne », regrette ainsi Daniel Friedlaender, responsable Europe du CCIA.

Même le ministre français du Numérique, Jean-Noël Barrot n’a pas affiché le même enthousiasme que Thierry Breton : « Nous allons analyser attentivement le compromis trouvé aujourd’hui et nous assurer dans les prochaines semaines que le texte préserve la capacité de l’Europe à développer ses propres technologies d’IA et préserve son autonomie stratégique », a-t-il expliqué sur France Inter. « Le vrai danger, c’est que se reconstitue avec l’IA les Gafam, c’est-à-dire la suprématie d’une toute petite poignée d’acteurs (NDLR : sous-entendu américains ou chinois) qui imposent leurs règles au monde ».
Et de rappeler que tout un travail technique reste à réaliser pour finaliser le texte et le détailler. Or, on le sait tous, le diable se cache toujours dans les détails.

 

À lire également :

AI Act, une première… à double titre
Le Parlement européen approuve l’AI Act
« Il faut orienter l’IA sur des activités complémentaires à ce que font les humains »
L’IA générative : les entreprises européennes se préparent à l’impact