L’empreinte environnementale du numérique suscite le débat et l’essor rapide des grands modèles d’IA constitue un véritable défi. L’usage mais surtout l’apprentissage des IA réclament énormément d’énergie et toute la filière doit réfléchir à de meilleures pratiques pour ne pas faire de l’IA une véritable menace pour notre environnement.
Selon les chiffres de l’ADEME et l’Arcep, le numérique représente de l’ordre de 3 à 4 % des émissions de gaz à effet de serre (GES) dans le monde et 2,5 % de l’empreinte carbone de la France. Les datacenters géants concentrent l’essentiel des débats sur l’impact environnemental de l’IT, or on sait que la majorité de cet impact tant du point de vue de la consommation de ressources naturelles que de la consommation énergétique provient des terminaux. Ceux-ci représentent de l’ordre de 79 % de l’empreinte carbone du secteur si on tient compte de la fabrication et de l’utilisation des équipements, contre 16 % pour les datacenters. L’IA n’échappe pas aux critiques car l’entraînement des grands modèles d’IA demande énormément d’énergie. L’entraînement de modèles équivalents à GPT 3 demande plusieurs jours de traitements sur des fermes de machines extrêmement puissantes. Cette empreinte n’est pas compressible et si les composants mis en œuvre de type GPU ou NPU (Neural) ont un rapport puissance/consommation qui s’améliore de génération en génération, les modèles d’IA sont pour leur part de plus en plus lourds. Il est désormais indispensable que les GAFAM, mais aussi toutes les entreprises qui investissent dans l’IA, prennent en compte cette dimension environnementale dans cette fuite en avant vers des modèles de plus en plus gros et donc plus consommateurs de ressources.
Réduire autant que possible l’énergie consommée par les terminaux
Il est difficile d’agir sur l’empreinte environnementale lors de l’entraînement des modèles qui est une phase relativement incompressible. Par contre, du côté de l’usage de ces modèles, la consommation va être très directement liée au nombre d’utilisateurs. A l’image des ChatGPT, Midjourney ou Bard, plus un modèle aura du succès, plus la consommation électrique globale sera élevée. Lorsque ces modèles d’IA sont exécutés sur les terminaux de l’utilisateur, c’est bien de ce côté que va se trouver l’essentiel de l’empreinte environnementale d’un modèle. C’est au niveau des terminaux qu’il faut agir en priorité pour obtenir un véritable impact. Les concepteurs d’IA doivent notamment intégrer les dernières technologies disponibles sur les smartphones. De plus en plus d’entre eux, y compris dans les modèles de moyenne gamme, intègrent des composants de type NPU. En utilisant ces composants plutôt que le microprocesseur, on va réduire de manière significative la consommation électrique de l’IA. Si, du point de vue environnemental, il est important d’allonger la durée de vie de nos smartphones au-delà de 3 ans, cela va freiner la diffusion de ces technologies avancées. Néanmoins, les concepteurs d’IA doivent essayer d’exploiter les capacités de traitement avancées des terminaux lorsque celles-ci sont disponibles.
Une autre approche possible et sans doute plus simple à mettre en œuvre par les architectes est de centraliser au niveau du datacenter les traitements les plus lourds. On doit partir du principe que le mobile ne doit être qu’un terminal d’affichage. Dans la mesure du possible, l’exécution du modèle doit être ramenée au niveau du Cloud afin d’alléger la consommation électrique des terminaux. Les serveurs consomment plus, c’est vrai, mais leur puissance est mutualisée à très grande échelle sur des milliers d’utilisateurs et les datacenters des fournisseurs sont les installations dont l’efficacité énergétique surpasse tout ce que peuvent mettre en place les entreprises non spécialisées.
Lorsque cette centralisation dans le Cloud n’est pas possible, comme pour un équipement industriel ou une voiture semi-autonome, les fabricants doivent embarquer des puces spécialisées pour soulager le calculateur central du véhicule et essayer d’enrayer la spirale infernale qui voit la puissance de calcul embarquée croître de manière exponentielle.
Ce travail sur l’architecture des applications mettant en œuvre des algorithmes d’IA est essentiel et il faut lancer un appel aux GAFAM qui doivent travailler sur des librairies d’IA Open Source plus économes en énergie. En effet, il n’existe pas à ce jour de librairies d’IA réellement « Green-IT ». Pour développer leurs algorithmes, beaucoup de Data Scientists mettent en œuvre Python, un langage qui a de grandes qualités, mais qui est peu optimisé à l’exécution et notoirement consommateur d’énergie. C’est certainement une piste de recherche à creuser pour améliorer l’impact environnemental de l’IA.
Utiliser l’IA uniquement où elle présente une réelle valeur ajoutée
Mais au-delà de la technologie elle-même, il faut élargir cette réflexion à tous les éditeurs de logiciels qui, parfois pour des raisons marketing, veulent absolument embarquer des moteurs d’IA dans leurs solutions. Il s’agit bien souvent de donner une image de modernité en la dotant de quelques fonctionnalités dopées au Machine Learning ou à ChatGPT.
L’IA a su démontrer sa pertinence et les énormes avancées tant dans le domaine médical, dans l’industrie, dans le Retail, la cybersécurité, mais il faut l’utiliser à bon escient et surtout de manière mesurée. Bien souvent, les modèles d’IA embarqués dans certaines applications délivrent des données triviales. Ils pourraient être remplacés par des algorithmes beaucoup plus simples et par conséquent beaucoup moins consommateurs d’énergie. Il faut exploiter le Machine Learning et le Deep Learning là où ces modèles présentent un véritable avantage et ne pas vouloir les utiliser à des seules fins de marketing et de communication.
Il faut mener une réflexion sur l’entraînement de nouveaux modèles. Beaucoup d’entreprises font développer de nouveaux modèles pour répondre à leur besoin spécifique alors que de nombreux modèles équivalents ont déjà été développés pour répondre au même problème. Sans doute faudra-t-il aller vers une plus grande mutualisation des modèles d’IA ou avoir recours à des modèles plus généralistes pour éviter que chacun ne doive ré-entraîner ses modèles de son côté.
A l’heure où, avec la Corporate Sustainability Reporting Directive (CSRD) l’Europe s’apprête à relever ses exigences en termes de reporting extra-financier, les entreprises doivent mettre en place un reporting précis sur l’empreinte environnementale de leur IT et notamment de leur stratégie IA. C’est une première étape qui sera complexe et sans doute difficile à mener, mais elle va ensuite leur permettre de mettre en place des mesures d’amélioration et aller vers une IA plus respectueuse de notre environnement et plus durable.
____________________________
Par Arnaud Cospain, architecte Cloud et automatisation chez Ippon Technologies