L’emballement autour de l’intelligence artificielle (IA) commence à s’atténuer pour laisser place à des réflexions plus réalistes. Plusieurs questions se posent : quel est le statu quo ? Les entreprises, les directeurs techniques (CTO) et les architectes sont-ils prêts à héberger, entraîner et mettre à jour l’IA ? Une chose est sûre : à cause des LLM, cette tâche risque d’être particulièrement ardue. Toutefois, le fait de combiner plusieurs petits modèles d’IA peut ouvrir la voie à un avenir prometteur. Aujourd’hui, le mot d’ordre serait donc le suivant : privilégier l’IA en essaim comme alternative à l’IA aux grands modèles de langage.
Le scénario est bien connu : lorsque de nouvelles solutions et technologies apparaissent, les acteurs majeurs du secteur dominent le marché. Ce phénomène est généralement suivi d’une réaction inverse de la part des acteurs plus modestes, dont un grand nombre de petits fournisseurs. Le marché finit ensuite par se consolider au milieu. Les applications simples, telles que les moteurs de recherche, les chatbots ou la synthétisation de contenus, en sont de bons exemples, puisque, dans leur cas, les petits modèles de langage suffisent et sont également les plus rentables.
Cette tendance est notamment due aux limites de l’intelligence artificielle et des grands modèles de langage. Ceux-ci sont conçus pour être universels et disposer de connaissances de base, ce qui les empêche de fournir des réponses spécifiques à un sujet précis. Par ailleurs, le problème d’éventuelles hallucinations est également difficile à contrôler.
L’ère des petits modèles
Une alternative aux LLM est l’approche de l’IA dite « en essaim », qui repose sur l’utilisation de plusieurs petits modèles pour effectuer des tâches spécifiques. Il peut s’agir de modèles développés en interne ou de modèles disponibles sur le marché et qui se combinent entre eux. En d’autres termes, ces modèles sont connectés à un méta-niveau en tant qu’unité de requête commune. Ainsi, lorsqu’une question est posée au niveau méta, celui-ci décide quel(s) modèle(s) fourniront la réponse.
L’utilisation de petits modèles présente de nombreux avantages ; ils favorisent notamment une adaptation dynamique et une intégration continue de nouvelles données. Les cycles d’entraînement peuvent ainsi être effectués beaucoup plus rapidement. Les petits modèles permettent également de diminuer considérablement les coûts – contrairement aux LLM, dont les milliards de paramètres exigent de lourds investissements.
Par ailleurs, l’utilisation de petits modèles à partir de données spécifiques à un domaine a pour effet de réduire la dépendance des entreprises à l’égard des grands fournisseurs de LLM, dont les solutions correspondent généralement à une boîte noire en termes d’algorithmes, de données d’entraînement ou de modèles. Les petits modèles, quant à eux, sont synonymes de transparence, de traçabilité et de fiabilité. À cet égard, l’Europe fixe régulièrement des normes en termes de réglementation, lesquelles sont de plus en plus adoptées à l’échelle mondiale. Si le RGPD représente le passé, le règlement européen sur l’IA (ou AI Act) pourrait bien servir d’exemple à l’avenir.
Enfin, l’IA en essaim peut également apporter une réponse à la pénurie de talents en IA et faciliter la mise en place et le bon fonctionnement des LLM. Les modèles plus petits ont la particularité d’être plus faciles à entraîner, à optimiser et à déployer, ce qui a pour effet d’accélérer les cycles de développement et la phase d’expérimentation.
Des données à la plateforme, puis à l’écosystème
Des données structurées, spécifiques et de haute qualité sont une condition essentielle au bon fonctionnement d’un modèle d’IA. Les grandes entreprises ont généralement accès à leurs propres bases de données et data lakes. Les organismes du secteur public eux-mêmes disposent souvent de données structurées qui peuvent être utilisées dans le cadre de solutions d’IA spécifiques à un domaine. Un exemple simple serait la planification d’itinéraires pour les camions poubelles en s’appuyant sur les données historiques disponibles.
L’architecture et l’infrastructure sous-jacente constituent d’autres éléments essentiels dans un environnement d’IA. Si une entreprise souhaite éviter de tomber dans la dépendance vis-à-vis des fournisseurs, mais aussi se tenir au courant des dernières innovations en matière d’IA et appliquer n’importe quel cas d’utilisation, il est recommandé d’opter pour une plateforme flexible et hybride, qui s’appuie sur l’open source. Ce genre de plateforme offre également la flexibilité nécessaire pour entraîner, régler, déployer et contrôler les modèles d’IA dans le cloud, en périphérie ou sur site. Par exemple, il est possible d’entraîner les modèles dans des fermes de GPU avec une nette séparation des clients dans le cloud ; le modèle peut ensuite être déployé sur site dans un environnement de production. Le fait de construire une infrastructure GPU coûteuse sur site ne présente généralement aucun intérêt pour les entreprises, d’autant que l’utilisation des GPU est généralement inférieure à 25 %.
En outre, les plateformes de cloud hybride ouvert permettent d’accéder à des partenaires d’IA/ML certifiés dans le cadre d’une approche dite « écosystémique ». Cela permet aux entreprises de tirer rapidement et facilement parti de solutions complètes pour les aider à développer, à déployer et à gérer des modèles d’applications intelligentes alimentées par l’IA. Dans tous les cas, le rôle de l’écosystème en tant que catalyseur de la concurrence et de l’innovation constitue un élément de grande importance dans le contexte de l’IA. Après tout, seul un écosystème fonctionnel peut servir de base pour développer des modèles d’IA pertinents, mettre les données d’entraînement à la disposition d’un large éventail d’utilisateurs et répondre à des questions éthiques fondamentales.
Aujourd’hui, l’engouement suscité par l’IA générative est retombé et les belles promesses ont cédé leur place à des attentes plus réalistes. Pour autant, cela ne signifie pas que l’IA connaisse son chant du cygne, mais plutôt qu’il est désormais nécessaire de la repenser. Ainsi, l’IA en essaim fondée sur de petits modèles spécifiques à un domaine ouvrira un nouveau chapitre prometteur dans l’utilisation de l’IA. Les fournisseurs européens devraient voir dans cette tendance une nouvelle opportunité de marché, car l’IA reste – du moins pour le moment – la technologie clé par excellence.
____________________________
Par Jan Wildeboer, EMEA evangelist chez Red Hat