Le 1er août 2024 marque une étape clé pour l’écosystème Tech avec l’entrée en vigueur de l’IA Act, la réglementation européenne encadrant le déploiement de l’intelligence artificielle (IA). Cette législation, une première au niveau mondial, établit un cadre éthique et technique pour le développement et l’utilisation de l’IA. Elle joue un rôle de bouclier pour les droits fondamentaux des citoyens, mais aussi en termes de sécurité d’utilisation des données. Pour les éditeurs de solutions IA, ce cadre est autant un défi à relever qu’une opportunité stratégique de créer de la valeur et d’innover.
Avec l’arrivée de l’IA Act européen (ou AI Act en anglais), de nombreuses voix se sont élevées pour alerter sur les freins à l’innovation que ce texte va faire peser sur les éditeurs de solutions et leur capacité à innover. D’autres au contraire, ont critiqué l’arrivée trop tardive de ce texte. En réalité, l’Union européenne a mis un en place une véritable règle du jeu pour que tous les acteurs européens travaillent avec les mêmes contraintes pour le développement d’applications et de solutions.
Une approche adaptée selon le risque
L’Europe a toujours eu une approche différente des États-Unis, par exemple, sur les aspects de protection et de réglementation liés au développement technologique. L’Union européenne a choisi de privilégier l’innovation tout en protégeant les individus (droits fondamentaux, sécurité).
L’IA Act repose ainsi sur une approche basée sur le risque. Elle classe les systèmes d’IA en quatre catégories : risque minimal, risque modéré, risque élevé et risque inacceptable. Différentes obligations s’appliquent selon la catégorie.
* Risque minimal : ces systèmes d’IA ne nécessitent pas de régulation supplémentaire. Ils correspondent aux systèmes comme les filtres anti-spam ou les jeux vidéo…
* Risque modéré : cette catégorie est soumise à des obligations de transparence spécifiques. Elle regroupe les solutions comme les chatbots, qui doivent informer les utilisateurs qu’ils interagissent avec une machine.
* Risque élevé : ces applications sont soumises à des contrôles rigoureux, notamment des audits et des mécanismes de gestion des risques. Cela concerne les systèmes ayant un impact direct sur la santé, la sécurité ou les droits fondamentaux, par exemple dans les domaines du recrutement ou de la santé.
* Risque inacceptable : cette dernière catégorie regroupe tous les types d’usages de l’IA qui seront désormais proscrits. Certaines technologies, comme les systèmes de notation sociale.
Cette classification impose aux éditeurs de logiciels de réfléchir dès la phase de conception à l’impact et à la conformité de leurs produits, en s’appuyant sur des outils de vérification et des méthodologies robustes. Il faut désormais agir bien plus tôt dans les cycles d’idéation et cadrage du projet initial pour intégrer cette réglementation.
Transparence et responsabilité : vers de nouvelles opportunités
Une des principales exigences de l’IA Act est la transparence. Les systèmes d’IA doivent non seulement être explicables mais également permettre une supervision humaine lorsqu’il s’agit de prises de décisions critiques. Par exemple, un algorithme utilisé pour trier les candidatures devra “justifier” ses choix en cas de contrôle. Cette obligation pousse les éditeurs à intégrer des processus vérifiables et à garantir l’intégrité de leurs solutions.
Ces nouvelles exigences représentent une opportunité pour les éditeurs de logiciels de se positionner comme des partenaires fiables, capables d’accompagner leurs clients dans une utilisation raisonnablement confiante de l’IA.
Des innovations plus éthiques
Ce nouveau cadre réglementaire incite à repenser les pratiques de conception pour répondre aux exigences de sécurité et de transparence.
L’IA Act ne freine pas l’innovation, mais la canalise vers des usages responsables et éthiques. Cela ouvre plusieurs perspectives pour les éditeurs :
* Proposer des services de conformité :développer des outils ou des plateformes facilitant la mise en conformité des entreprises clientes, notamment dans les secteurs hautement réglementés comme la santé ou la finance, friands d’applications d’IA.
* Accélérer l’innovation éthique :le cadre réglementaire crée un espace pour développer des applications innovantes qui respectent des normes de qualité et d’éthique élevées.
Les éditeurs qui proposent des outils pour automatiser les processus métier par exemple ou pour soutenir la prise de décision doivent désormais intégrer des mécanismes de supervision et de documentation plus rigoureux. Bien que cela puisse allonger les cycles de développement, cela garantit également des produits robustes et conformes, renforçant ainsi la compétitivité des éditeurs sur un marché de plus en plus exigeant.
Loin d’être une contrainte supplémentaire, l’IA Act représente une chance unique pour les éditeurs de logiciels de démontrer leur expertise et leur engagement en faveur d’une technologie responsable. En s’alignant sur ces exigences, ils contribuent à structurer un écosystème européen de l’IA basé sur la confiance, la sécurité et l’innovation. Dans un contexte où les attentes des consommateurs en matière d’éthique et de responsabilité augmentent, cette réglementation pourrait bien devenir un atout majeur pour les entreprises capables de s’y conformer. L’IA Act est un catalyseur de changement pour un secteur technologique plus transparent, sûr et innovant.
_____________________________
Par Frédéric Vu, Strategic Program Manager chez Bonitasoft