Pourquoi adopter le Green IT, et comment ? - compte-rendu de panel
Le numérique représente 4 % des émissions mondiales. Comment pouvons-nous agir pour les limiter ? Quatre experts ont répondu chez Scaleway...
Un peu plus d'un an après l'explosion de l'IA générative suite au lancement de ChatGPT, il est difficile de se souvenir d'une époque sans ces outils révolutionnaires. Toutefois, il reste à voir si la vitesse fulgurante du changement nous a laissé suffisamment de recul pour évaluer pleinement l'impact réel de l'IA générative sur la planète. Voyons donc ce qu'il en est.
Il est désormais bien établi que l'IA générative nécessite une puissance de calcul considérablement plus importante que les standards actuels. En grande partie parce que l'apprentissage des modèles d'IA générative nécessite généralement des GPU plutôt que des CPU. Les premiers requièrent environ quatre fois plus d'énergie que les seconds (par exemple, les CPU d'Ampere conçus pour l'IA consomment 3 à 5 fois moins d'énergie que les GPUs NVIDIA équivalentes).
En outre, comme les GPU d'IA ont tendance à générer 2,5 fois plus de chaleur que les CPU (les CPU standard utilisés dans le cloud computing ont un TDP de 250 à 350 W, alors que les GPU ont un TDP de 750 à 800 W, cf. Intel, AMD x2 et NVIDIA), ils ont besoin d'autant de puissance de refroidissement en plus. Ainsi, il est clair que les processeurs nécessaires à l'apprentissage et à l'inférence de l'IA générative sont considérablement plus gourmands en énergie que les modèles d'IA pré-générative.
Ensuite, il y a la différence entre la formation et l'inférence. En ce qui concerne la première - le processus requis pour "éduquer" un modèle d'IA génératif en lui fournissant autant de données que possible - les émissions générées par la formation varient énormément en fonction du modèle :
(tCO2e = tonnes d'équivalent CO2, à savoir le CO2 + les 3 autres gaz à effet de serre les plus puissants)
Cela signifie que l'entraînement d'un modèle génératif d'IA peut générer l'équivalent des émissions annuelles de trois Français (10 tCO2e), jusqu'à 50.
Mais bien sûr, la formation n'est qu'un événement ponctuel, limité dans le temps. L'inférence, ou l'utilisation quotidienne d'un modèle, a son propre impact, qui a été estimé à 200 fois plus élevé que celui de la formation. Selon l'association technologique française Data for Good, si l'on considère que ChatGPT compte 100 millions d'utilisateurs hebdomadaires, cela représente 100 000 tCO2e/an pour GPT-3.5.
Pour donner un autre exemple, créer une image avec de l'IA générative pourrait utiliser autant d'énergie que de recharger pleinement un smartphone, d'après le dernier livre blanc co-signé par Sasha Luccioni, Climate Lead and AI Researcher chez Hugging Face. Il faut cependant bien insister sur le conditionnel dans ce cas, comme le souligne The Verge, étant donné la très grande variété de modèles GenAI déjà disponibles.
Ensuite, il y a l'eau. Toujours en lien avec l'inférence, il a été établi qu'une conversation avec ChatGPT consomme un demi-litre d'eau en termes de ressources de refroidissement du centre de données (cf. la chaleur considérable générée par les GPU, cf. ci-dessus). Sans parler de l'entraînement de GPT-3, qui a nécessité 5,4 millions de litres d'eau (même source). Cela représente un peu plus d'un litre par heure d'entraînement (l'entraînement de GPT-3 a nécessité 4,6 millions d'heures de GPU, selon... ChatGPT !)
Compte tenu de ces éléments, on peut s’attendre à ce que la demande d'énergie pour l'IA dépasse à terme l'offre.
Si Google devait utiliser l'IA pour ses quelque 9 milliards de recherches quotidiennes - ce qui arrivera très probablement - il lui faudrait 29,2 térawattheures (TWh) d'électricité chaque année, selon le chercheur Alex de Vries. Ainsi, comme l'a déclaré M. de Vries à Euronews l'année dernière, d'ici 2027, l'IA pourrait consommer autant d'électricité qu'un pays de taille moyenne comme les Pays-Bas.
L'IAE (Association internationale de l'énergie) a récemment lancé un avertissement similaire : la consommation d'énergie des centres de données pourrait plus que doubler d'ici 2026, pour atteindre 1 000TWh, sous l'effet de l'IA et des crypto-monnaies.
L'un des leaders les plus influents de l'IA l'a naturellement vu venir : à Davos en janvier 2024, le PDG d'OpenAI, Sam Altman, a déclaré que l'IA aura certainement besoin de beaucoup plus d'énergie qu'on ne le pensait au départ. "Il n'y a aucun moyen d'y parvenir sans une percée énergétique [comme la fusion nucléaire]", a-t-il déclaré lors d'une table ronde, selon Reuters. Cela pourrait bien être la raison pour laquelle l'investisseur le plus célèbre d'OpenAI, Microsoft, vient d'embaucher un nouveau directeur de l'accélération du développement nucléaire : pour "aider à alimenter sa propre révolution de l'IA", selon TechRadar Pro.
Bien que nous soyons encore loin de la fusion nucléaire - par rapport aux méthodes actuelles de fission - la piste des datacenters alimentés par énergie nucléaire se creuse de plus en plus en ce moment.
Selon Lisa Su, PDG d'AMD, dans une dizaine d'années, nous pourrions voir apparaître des superordinateurs de classe zettaflop, qui auront besoin de datacenters à 500 MW, soit 10 à 20 fois plus puissants que certaines des plus grandes installations actuelles. De tels besoins ne peuvent être satisfaits que par des sources locales et spécialisées telles que les SMR (petits réacteurs modulaires) nucléaires.
C'est pour cette raison que The Register rapporte que Cumulus Data a ouvert l'année dernière un centre de données nucléaire de 65 MW qui, selon lui, atteindra à terme une capacité de 950 MW. En outre, des installations alimentées par des SMR sont actuellement étudiées par Green Energy Partners/IP3 (Virginie, États-Unis) et Bahnhof (Suède).
Compte tenu de notre dépendance actuelle à l'égard des énergies fossiles (les États-Unis en dépendent encore pour 80 % de leur énergie), les datacenters nucléaires et sans émissions pourraient-ils être une meilleure option pour la planète que les solutions actuelles ? L'avenir nous le dira, surtout pour les générations futures…
La première règle de toute stratégie de durabilité, en particulier dans le domaine de la technologie, devrait être de se demander "ai-je vraiment besoin de cela ?".
En effet, l'IA générative n'est ni inévitable, ni adaptée à tous les cas d'utilisation. Comme nous l'avons déjà expliqué ici, l'IA symbolique peut être bien plus utile qu’on ne le pense, et bien moins impactant. La startup française Golem.ai a notamment établi que l'un de ses modèles d'IA symbolique de tri d'emails émet 1000 moins de CO2eq que le GPT-3.
Cela dit, si l'IA générative s’avère indispensable pour vous, devez-vous absolument créer un modèle aussi imposant que ChatGPT ? Doit-elle aspirer toutes les données du monde, ou peut-elle se concentrer sur un ensemble de données spécialisées, comme les documents juridiques, par exemple ?
Devez-vous absolument utiliser un supercomputer pour la formation, ou un simple GPU H100 plus petit ferait-il l'affaire ? Peut-être même que des GPU d'ancienne génération pourraient répondre à vos besoins ?
Pour l’inférence, un CPU moins gourmand en énergie qu’un GPU, comme ceux d'Ampere, pourrait-il faire l’affaire (cf. ci-dessus) ?
Ensuite, pourquoi ne pas s’inspirer des nombreuses façons dont l'IA générative est utilisée aujourd'hui pour faire avancer le développement durable ?
En effet, un rapport de McKinsey indique que les technologies basées sur l'IA pourraient aider les entreprises à réduire leurs émissions jusqu'à 10 % et leurs coûts énergétiques de 10 à 20 %.
Par exemple, DeepMind, la filiale de Google spécialisée dans l'IA, qui a déclaré dès 2016 que son application de machine learning dans les centres de données GCP a permis à ces installations de consommer 40 % d'énergie en moins. Comment ? En améliorant l'anticipation des facteurs internes clés, comme la façon dont les différents types de machines interagissent entre elles, et externes, comme la météo, grâce à des données d'entraînement telles que les températures, la puissance, la vitesse des pompes et les points de consigne antérieurs.
L'impact de l'IA dans les centres de données peut également être réduit en utilisant des systèmes de refroidissement alternatifs. C'est le cas du datacenter DC5 - où sont hébergées les machines d'IA de Scaleway - qui consomme 30 à 40 % d'énergie en moins que les installations standard, car il n'utilise pas de climatisation. Il utilise le free cooling la plupart du temps et, pendant les mois d'été plus chauds, le refroidissement adiabatique, un processus qui refroidit l'air extérieur en le faisant passer à travers une membrane humide. Ceci, ajouté à la faible intensité carbone de l'énergie française, fait de DC5 l'une des installations d'IA les moins impactantes au monde.
Le machine learning peut également être utile dans des contextes plus larges, comme l'utilisation de données antérieures pour prédire la demande future d'électricité, optimisant ainsi les réseaux intelligents ; l'anticipation du trafic routier, qui peut rendre les déplacements et les livraisons plus efficaces, réduisant ainsi la pollution (Google affirme que son initiative Green Light avec Google Maps peut réduire les émissions aux intersections de 10 %) ; l'ajustement de la consommation d'énergie dans les bâtiments grâce à la prédiction de la température ; et la prévision d'événements ou d'incidents météorologiques extrêmes, comme Pyronear, qui utilise des tours équipées d'IA pour détecter les incendies de forêt.
Tous ces exemples et bien d'autres encore - couvrant également les impacts sociétaux, l'analyse des politiques publiques, l'éducation et la finance - sont aujourd’hui une réalité grâce à l'IA générative. Ce livre blanc rédigé par des universitaires de renom et des leaders d'opinion de Google montre comment ces diverses activités accélèrent le développement durable dans son ensemble.
Il y a ensuite les applications qui nous avertissent des urgences potentielles en matière de développement durable. Data for Good a notamment permis à l'ONG de protection des océans Bloom de détecter la pêche illégale à l'aide de l'IA, et a utilisé l'IA pour alimenter son site web Carbonbombs.org, qui signale les projets les plus polluants au monde, tels que les mines de charbon. Enfin, Climatetrace.org utilise l'IA pour mettre en évidence les pays qui ne décarbonisent pas aussi rapidement qu'ils le prétendent.
L'IA générative peut également faciliter l'accès aux informations clés à propos de la durabilité. L'agence écologique nationale française (et client de Scaleway) ADEME teste actuellement un modèle textuel formé sur la conséquente base de documentation de l'agence, dans le but d'en extraire les données les plus importantes rapidement et facilement. Si l'expérience est concluante, le modèle pourrait à terme être ouvert au grand public. Mené par l'équipe "AI for Sustainability" d'Ekimetrics, ce projet est similaire à "ClimateQ&A", un modèle formé sur les rapports du GIEC, qui est sensiblement un ChatGPT de la durabilité (et pas le seul, cf. ce plugin ChatGPT plugin, "IPCC Explainer").
Sans oublier les modèles d'IA eux-mêmes : plus ils sont petits, moins ils consomment d'énergie, ce qui les rend meilleurs pour tout le monde, y compris pour la planète. Comme l'a expliqué Arthur Mensch, PDG et cofondateur de Mistral AI, à ai-PULSE en novembre dernier, "dans la version ‘Vanilla Attention’ de Transformers, il faut garder les jetons en mémoire. Avec le modèle "Sliding Window Attention" de Mistral AI, il y a quatre fois moins de jetons en mémoire, ce qui réduit la pression sur la mémoire et permet donc d'économiser de l'argent. Actuellement, l'IA générative utilise trop de mémoire". C'est notamment pour cette raison que le dernier modèle de l'entreprise, Mistral-7B, peut fonctionner localement sur un smartphone (récent).
À l'avenir, cette approche axée sur l'efficacité s'appliquera également aux offres de solutions d'IA. Scaleway vise à lancer en version bêta d'ici à la mi-2024 un service d'inférence qui servira les LLM connectés aux données privées ou sensibles des clients. Basé sur des LLM tels que Llama ou ceux de Mistral AI, un tel service est rentable en termes de coûts et d'énergie :
Si l'on considère qu'il y a autant de solutions d'IA que d'impacts, il est trop tôt pour établir un verdict dans un sens comme dans un autre. La plupart des experts s'accordent à dire qu'il est trop tôt dans la révolution de l'IA générative pour mesurer son véritable impact sur la planète.
Mais il y a des bonnes nouvelles ! Tout d'abord, il est tout à fait possible d'évaluer et de minimiser l'impact avant de choisir le modèle d'IA adapté à vos besoins, à savoir :
De plus, sachez que les principes de Green IT s'appliquent tout autant à l'IA qu'à l'informatique "traditionnelle" :
Enfin et surtout, les ensembles de données, les modèles et les machines d'IA ne devraient avoir que la taille et la puissance nécessaires. Sinon, l'éternel risque de tomber dans l'effet rebond, ou paradoxe de Jevon - utiliser un service plus, plutôt que moins, au fur et à mesure qu'il devient plus efficace - pourrait avoir des conséquences désastreuses.
Comme le dit Theo Alves da Costa, responsable de l'IA pour le développement durable chez Ekimetrics, "si nous utilisons le bulldozer de l'IA pour enfoncer un clou dans un mur, le clou entrera, mais nous courons aussi le risque de faire tomber tout le mur. Dans ce cas, il vaut mieux utiliser un marteau".
Un grand merci à Theo Alves Da Costa d’Ekimetrics, dont beaucoup de sources ont inspiré cet article. Et à Sasha Luccioni de Hugging Face pour la motivation initiale !
Le numérique représente 4 % des émissions mondiales. Comment pouvons-nous agir pour les limiter ? Quatre experts ont répondu chez Scaleway...
Le secteur numérique génère 4 % des émissions mondiales de gaz à effet de serre. Comment les ingénieurs, et toute personne façonnant la technologie aujourd'hui, peuvent-ils réduire cet impact ?