La gouvernance des données et la sécurité demeurent des projets inachevés pour de nombreuses entreprises, entravant l’entraînement des modèles d’IA avec des données fiables et accessibles. Pour sortir l’IA générative des laboratoires et des PoCs, il va falloir surmonter ces défis…

L’année 2023 a été marquée par l’avènement de ChatGPT et de l’IA générative. Les perspectives de profits ont conduit les géants de la Tech à investir massivement, à accélérer leurs propres efforts, créant un raz-de-marée d’innovations qui promettait de remodeler la façon dont les entreprises et les utilisateurs exploitent la puissance de la technologie, pour stimuler la productivité.

Mais ce que nous percevons jusqu’à présent n’est qu’un début ! L’IA ne s’accomplira totalement que lorsqu’elle sera parvenue à répondre aux défis de fiabilité des données, de coût de développement et de conformité. Il s’agirait aujourd’hui de dépasser le stade de laboratoire pour atteindre un déploiement à grande échelle.

Données fiables pour résultats fiables

Passés les débats sur la menace de l’IA pour la pérennité de l’espèce humaine, l’utilisation de l’IA à des fins géopolitiques et militaires, les détournements de l’IA par les pirates informatiques, les incroyables potentialités de l’IA… il convient d’aborder le sujet sous la perspective des limites à la réalisation de l’IA. La réflexion consisterait prosaïquement à se demander si un passage de la science-fiction à la science, qui fort heureusement ne peut pas tout, est possible.

Sans vouloir épuiser immédiatement le sujet, affirmons qu’aucune organisation ne peut espérer créer de la valeur ou utiliser la donnée comme outil d’aide à la décision, si les modèles d’IA sont entraînés à partir de données inadaptées.
Dans le torrent de littérature ou de commentaires autour de l’IA, on oublie, sciemment ou non, de rappeler que la gouvernance des données et les enjeux de sécurité sont encore au stade de projet pour de nombreuses organisations. Comment parler d’IA si nous n’abordons pas l’enjeu de la disponibilité et de la qualité des données. C’est un peu comme si nous percevions l’IA comme un bel objet, sans jamais nous intéresser aux processus et aux conditions de sa fabrication. Il est vrai que de nombreuses entreprises disposent d’importantes réserves de données essentielles. Mais beaucoup de ces sources sont enfermées dans des silos et le coût de leur intégration est difficilement soutenable.

Ce qu’il faut comprendre ici, c’est que les données nécessaires à l’entraînement de l’IA sont certes disponibles, mais son souvent inaccessibles, manquent souvent de contexte… Ajoutons que ces données, selon la zone géographique, sont soumises à un cadre législatif limitant ou encadrant leur traitement (RGPD, DSP2 ou encore NIS2). Devrions-nous fermer les yeux et utiliser des sources de qualité contestable ? Nous le savons, des données de « mauvaises qualités » conduisent l’IA à formuler des réponses hallucinées, en apparence justes, mais irrecevables.

Rappelons aussi que la course à l’innovation qui se joue en ce moment a un coût que peu d’organisations peuvent supporter, à défaut d’avoir d’importants investisseurs sur le long terme. Et pour preuve, une seule unité de traitement graphique (GPU) de pointe, conçue spécifiquement pour exécuter de grands modèles de langage (LLM), coûte environ 30 000 dollars. Une organisation voulant entraîner un modèle avec, par exemple, 175 milliards de paramètres pourrait avoir besoin de 2 000 GPU… La solution ? Les entreprises pourraient recourir à l’externalisation pour réduire les coûts de développement ou palier un savoir-faire indisponible. Cette externalisation a aussi ses limites : confidentialité des données partagées à des tiers, conformité réglementaire, risque de cybersécurité…

Du laboratoire à la production, en passant par le cloud

A ce stade, nous comprenons qu’il s’agirait de dissocier potentialité de l’IA et faisabilité.

Et si nous émettions l’hypothèse que le cloud pourrait rendre possible une IA fiable et moins coûteuse ? Aujourd’hui, les fournisseurs de cloud disposent des ressources GPU nécessaires pour permettre aux entreprises de mettre à l’échelle leurs projets GenAI et ne payer que ce qu’ils utilisent. Ceci permettrait d’expérimenter et « d’éteindre » le modèle une fois les expérimentations menées plutôt que de devoir provisionner des GPU dans des environnements sur site.

Les bénéfices apparaissent d’emblée : réduction des dépenses de R&D, possibilité d’effectuer des tests et d’adopter les processus en interne si les résultats sont concluants. L’adoption d’une approche cloud pourrait se résumer aux concepts de Test & Learn ou de Sand Box. Comprenez que l’entreprise disposerait d’une prise de risque minimale, tout en ayant la possibilité de tester des données et d’apprécier les usages possibles, avant leur exploitation sur le marché.

« Vingt fois sur le métier remettez votre ouvrage : Polissez-le sans cesse et le repolissez ; Ajoutez quelquefois, et souvent effacez », suggère l’écrivain et poète Boileau dans L’Art poétique, poème didactique où il partage, dirons-nous aujourd’hui ses bonnes pratiques pour approcher la perfection dans l’écriture. Ce principe pourrait tout aussi bien s’appliquer à l’IA si nous suivons les cinq règles suivantes :

Concevoir : d’abord, créer une architecture de données moderne et un maillage de données d’entreprise universel. Il y a deux bénéfices : hébergées sur site ou dans le cloud, ceci permettra à l’organisation d’obtenir une visibilité et un contrôle de ses données et aidera également en établissant une ontologie unifiée pour la cartographie, la sécurisation et la conformité à travers tous les silos de données. Rechercher des outils qui répondent non seulement aux besoins métiers du moment, mais qui ont aussi la capacité de s’adapter aux évolutions du marché. Les solutions open source offrent souvent une plus grande flexibilité.

Affiner : ensuite, affiner et optimiser les données en fonction des besoins commerciaux existants. Il est important à ce stade d’anticiper aussi précisément que possible les besoins futurs. Cela réduira les chances de migrer trop de données inutiles, qui n’ajouteront aucune valeur, mais pourraient augmenter considérablement les coûts.

Identifier : repérer les opportunités à utiliser le cloud pour des tâches spécifiques. Une analyse des charges de travail sera utile, ici, pour déterminer où la valeur pourrait être la plus importante. Il s’agit de connecter les données entre les emplacements – qu’il s’agisse d’infrastructures sur site ou dans plusieurs clouds – pour optimiser le projet.

Expérimenter : essayer des frameworks GenAI pré-construits et tiers pour trouver celui qui correspond le mieux aux besoins de l’entreprise. Il en existe plusieurs, parmi lesquels : Bedrock d’AWS (Hugging Face), OpenAI d’Azure (ChatGPT) et AI Platform de Google (Vertex). Il est important de ne pas précipiter le choix. Le modèle doit s’intégrer étroitement aux données d’entreprise existantes pour garantir des chances de succès.

Mettre à l’échelle et optimiser : enfin, une fois une plateforme adaptée choisie, envisager de sélectionner un ou deux cas d’utilisation à mettre à l’échelle dans un modèle de production. Optimiser continuellement le processus, mais surveiller les coûts liés aux GPU. À mesure que les capacités GenAI de l’organisation commencent à se développer, rechercher des moyens d’optimiser leur utilisation. Une plateforme d’IA flexible est cruciale pour le succès à long terme.

Le monde des affaires et de la tech est, nous le comprenons, enthousiaste devant les potentialités de l’IA (amélioration du service client, optimisation de la Supply Chain, accélération des DevOps, etc.). Mais toute cette émulation ne doit pas faire perdre le sens des réalités en sous-estimant le chemin à parcourir. L’IA a certes déjà permis d’importants changements de paradigmes dans des secteurs clés de nos économies. Cependant les organisations doivent encore revoir leurs copies pour la mise en place d’une feuille de route pérenne en matière de données dans le cloud.
___________________

Par Sophie Papillon, vice-présidente régionale France et Maghreb, Cloudera

 

À lire également :

IA générative en entreprise et open source…

En finir avec la « taxe d’intégration » des données

Les grands chantiers des LLM et de l’IA générative

IA générative : comment réussir la transformation de l’administration française ?

Adoption responsable de l’IA Générative en entreprise et les avantages de l’IA Privée…

IA Générative et éthique : le dilemme de la gestion des données…