Face à l’émergence de l’IA générative en santé, les professionnels sont confrontés à un dilemme entre innovation et risque accru de fraude, soulignant l’importance de stratégies de régulation efficaces.

Pas un jour ne passe sans que ne soit évoqué le potentiel illimité ou la menace existentielle (selon le point de vue) que représente l’émergence rapide de l’intelligence artificielle générative. Certes, l’IA générative (GenAI) promet de transformer de nombreux secteurs. La santé est un de ceux où le potentiel semble le plus important.

De la création de faux dossiers médicaux à la création d’images diagnostiques biaisées, en passant par la falsification de l’identité des patients – tout semble dorénavant possible pour le fraudeur lambda s’emparant de cette nouvelle technologie.

L’intersection de l’IA générative et de la fraude dans le secteur médical

La combinaison de l’IA générative et de la fraude doit être examinée de près, pour les acteurs du monde médical. L’une des plus grandes forces de l’IA générative est de générer en un temps éclair des scénarios hyperréalistes à partir de quelques prompts simples. Un « hacker » n’a même plus besoin de beaucoup de créativité et avec un simple prompt, peut demander à ChatGPT de créer un dossier médical décrivant dans les moindres détails toutes les caractéristiques d’une maladie en particulier. A en perdre le plus armé des médecins. Et donc bénéficier et justifier (faussement) de services médicaux à l’aide de son (faux) dossier médical.

Prenons maintenant l’exemple de la fraude au dossier médical. Ce type de fraude consiste à soumettre des demandes de remboursement pour des services qui n’ont en réalité jamais été fournis. Ces demandes sont habituellement accompagnées d’un même dossier médical avec des variations mineures pour chaque demande de remboursement soumise. L’humain ne pourra jamais vérifier l’intégralité des dossiers médicaux, du moins pas en détail. L’émergence de l’IA générative perfectionne ce mécanisme de fraude, car un chatbot basé sur des LLM (large language models) peut facilement produire de nombreux dossiers médicaux.

Le début de nouveaux défis : Les interviews « deepfake » ?

Un autre point fort de l’IA générative est la génération d’images. Hélas, la capacité de recréer des images très réalistes peut trouver une application parfaite dans la fraude à la santé. Une IA est aujourd’hui déjà capable de créer des filtres « humains » en temps réel, d’imiter une voix ou même d’en créer une nouvelle. Comment s’assurer que vous parlez bien au patient supposé et non pas à une IA ?

Depuis son lancement au grand public début 2023, les organismes de santé et l’industrie pharmaceutique testent et semblent adopter rapidement l’IA générative. A bon escient ! Les organisations professionnelles du secteur promettent déjà que cette technologie traitera la facturation médicale, la communication avec les patients et la création de dossiers médicaux électroniques. Mais dans un contexte de fraude, comment ne pas brouiller les lignes ? Faudra-t-il rendre obligatoire la déclaration de contenu écrit par de l’IA générative ? Et pour aller plus loin, comment définir la limite de contribution de l’IA générative ?

Rare sont les domaines, où l’avènement de l’IA générative cause une telle schizophrénie. En effet, cette technologie suscite à la fois de l’enthousiasme et de l’inquiétude.

Est-ce que le Hacker 2.0 sera un Hacker « Ethique » ?

Malgré ce développement qui peut sembler effrayant, beaucoup de dispositifs sont mis en place pour assurer une utilisation pérenne de l’IA générative. Les régulateurs, les professionnels de la santé et les développeurs d’IA collaborent d’ores et déjà étroitement pour élaborer des normes éthiques et des protocoles de sécurité rigoureux. Leur but : garantir que l’IA générative soit employée de manière responsable dans le secteur de la santé, minimisant ainsi les risques de fraude et préservant la confiance des patients dans l’intégrité de leurs données et des soins ou services dont ils bénéficient.

Gérer ces défis nécessite une prise de conscience de tous les acteurs, du data scientist développant son modèle aux organismes d’état appliquant les stratégies de santé. Dès que nous réussirons à mettre en place ces innovations en termes d’IA responsable, cela changera la donne.

____________________________

Par Olivier Bouchard, Principal Business Solution Manager, Life Sciences chez SAS

 

À lire également :

Santé et cyberattaques : code rouge activé !

L’IA au service de la santé : les données synthétiques peuvent-elles améliorer l’éthique ?

Santé : et si les technologies réseaux pouvaient réinventer l’expérience des patients et du personnel soignant ?