Certains y verront une millième agence publique… D’autres un respect des engagements de la France et une étape supplémentaire vers un développement sûr de l’IA. La France officialise l’INESIA, une sorte de bureau destiné à fédérer les expertises IA nationales existantes… Pour que l’IA reste sous contrôle de l’humain…

À quelques jours de l’ouverture à Paris du Sommet pour l’action sur l’intelligence artificielle (10 et 11 février), la France vient d’officialiser la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Son objectif : assurer un développement maîtrisé de l’IA, grâce à l’anticipation des risques et à l’évaluation de la fiabilité des modèles. La France s’était engagée – comme les 9 autres pays signataires –  à la création de cet institut scientifique national dédié à l’IA dans le cadre de l’accord signé à Séoul en mai dernier pour une IA sûre, novatrice et inclusive.

Une mission de veille et de coordination

Piloté par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et par la Direction générale des entreprises (DGE), l’INESIA n’a pas vocation à devenir un régulateur, mais plutôt à fédérer les expertises déjà existantes. Ses travaux impliqueront notamment l’Agence nationale de la sécurité des systèmes d’information (Anssi), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire national de métrologie et d’essais (LNE) et le Pôle d’expertise de la régulation numérique (Peren).

Renforcer la confiance dans l’IA

Outre l’analyse des risques systémiques — en particulier dans le domaine de la sécurité nationale — l’INESIA soutiendra la mise en œuvre des futures réglementations et veillera à la diffusion des bonnes pratiques, dans un contexte où la confiance et la sécurité sont jugées essentielles pour favoriser l’adoption de l’intelligence artificielle.

Bien qu’il ne s’agisse pas d’une nouvelle entité juridique, l’INESIA constitue un jalon stratégique supplémentaire aussi bien dans la mise en oeuvre de l’AI Act européen que pour conforter le rayonnement de la France parmi les pays leaders sur l’IA. Reste désormais à l’INESIA à justifier son existence et son utilité dans un monde où les progrès en IA sont fulgurants et où l’on voit de plus en plus les IA ne plus se contenter de jacasser mais agir aussi bien dans l’univers numérique que physique.  Pas simple quand on est « ni une nouvelle structure juridique », « ni doté de pouvoirs régulateur ». Mais c’est maintenant qu’il faut dispenser les bonnes pratiques et les bons outils de surveillance pour s’assurer que l’IA – quelle soit produite par des startups françaises comme Mistral AI, LightOn, Kyutai et autres, ou par des américains et de chinois – soit sûre et éthique tout en favorisant l’innovation et la coopération internationale.

 

À lire également :

Avec l’IA frugale, la France veut inspirer le monde

IA Act : Quand la réglementation devient le moteur d’une innovation responsable

IA Act : comment l’UE va encadrer les usages de l’IA

L’AI Act européen : une avancée cruciale qui pose la nécessité d’une gestion intelligente des données

Les modèles à raisonnement : la nouvelle frontière de l’IA