Si l’IA promet d’améliorer les soins de santé, elle présente aussi des risques de biais et d’opacité, pouvant compromettre la confiance des patients et des professionnels. Une réglementation adaptée, combinée à une approche collaborative, est indispensable pour concilier innovation technologique et responsabilité éthique.
Bien que l’IA présente un vaste potentiel, elle soulève également des questions importantes en matière de gouvernance, d’éthique et de fiabilité.
En France, où l’accélération de l’IA dans le domaine de la santé est une priorité, le secteur doit encore surmonter des obstacles majeurs. Cet article aborde les principaux défis ainsi que certaines pistes de solutions.
Accès aux données et biais algorithmiques
L’un des principaux défis auxquels l’IA en santé est confrontée est l’accès à des ensembles de données, stockées dans des entrepôts de données de santé, ce qui limite leur utilisation. Cette difficulté peut entraîner plusieurs types de biais qui peuvent se combiner et amplifier leurs effets, compromettant la performance des algorithmes. Or ces biais entretiennent une méfiance, aussi bien chez les professionnels de santé que chez les patients. En France, cette situation est exacerbée par des délais d’accès aux données de santé relativement longs. Selon un rapport de Medscape, il faut en moyenne 18 mois pour accéder à des données de santé, ce qui freine le développement rapide de solutions basées sur l’IA.
Manque d’explicabilité
L’IA est souvent utilisée pour prédire des maladies. Cependant, ces prédictions peuvent poser des défis aux médecins, car ils ont parfois du mal à comprendre comment l’IA arrive à ces conclusions. Ce manque de transparence dans le raisonnement des algorithmes rend difficile l’interprétation des résultats et peut limiter la confiance des médecins dans les décisions cliniques basées sur l’IA.
Résultats hallucinatoires
Les « hallucinations » de l’IA sont des résultats incorrects ou trompeurs, souvent causés par un manque de données d’entraînement, des hypothèses erronées, ou des biais dans les données utilisées. Une étude conduite par une université américaine a révélé que interrogé sur les interactions possibles entre différentes molécules, les réponses de ChatGPT s’avéraient la plupart du temps inexactes, voire dangereuses.
Guérir les maux de l’IA
Il est essentiel de mettre en place des normes de développement et d’évaluation pour l’IA. La loi sur l’IA de l’UE vise à garantir que les systèmes d’IA utilisés en Europe soient sûrs, transparents, traçables et non discriminatoires. Elle insiste aussi sur l’importance d’une supervision humaine, affirmant que « les systèmes d’IA doivent être supervisés par des personnes, et non entièrement automatisés, pour éviter des résultats néfastes ».
Mais au-delà des politiques, une approche globale est nécessaire. Cela implique la collaboration entre développeurs, éthiciens, décideurs politiques, patients et chercheurs en santé.
De nombreuses entreprises technologiques encouragent également l’IA responsable, en favorisant l’expertise et la coopération pour établir des normes de sécurité et de confiance. Des initiatives comme l’Alliance pour l’IA réunissent des universitaires, des scientifiques et des entreprises afin de créer des modèles de référence et des ressources éducatives pour promouvoir l’usage d’une IA éthique et responsable.
Une approche collaborative, centrée sur l’utilisateur, est tout aussi cruciale. Il est important d’impliquer des experts en éthique de l’IA et des parties prenantes variées dès les premières étapes de développement. Les bons partenaires peuvent aider les prestataires de santé à respecter ces exigences, à maintenir la confiance des patients, et à garantir que l’IA serve à la fois l’innovation et l’éthique.
_____________________________
Par Christophe Schwanengel, PDG de FPT Software France