Le machine learning (ML) est devenu un outil clé dans diverses applications telles que l’assurance, les banques, la finance, les soins de santé, etc. Résultat, ce marché devrait atteindre les 47,3 milliards de dollars dans 6 ans, contre 2,4 milliards en 2019, selon une étude menée par Verified Market Research.
Revers de la médaille, le ML est énergivore. L’alimentation des processeurs graphiques ou GPU en anglais (Graphics Processing Unit) pour former les plus petits modèles d’apprentissage capables de traiter le langage ou les images émet à peu près autant de carbone que la recharge d’un téléphone.
Le plus grand modèle (six milliards de paramètres) a émis presque autant de carbone que l’alimentation d’un foyer pendant un an aux États-Unis. Il n’était pourtant entraîné qu’à 13 % de ses capacités…
Des mesures plus précises
Ces résultats impressionnants ont été obtenus par Jesse Dodge, chercheur à l’Allen Institute for AI et auteur principal d’un article présenté en juin dernier à la conférence ACM sur l’équité, la responsabilité et la transparence (FaccT- Fairness, Accountability and Transparency – ACM FAccT).
Cette équipe a développé 11 modèles d’apprentissage automatique de différentes tailles pour traiter le langage ou les images. La formation allait d’une heure sur un GPU à huit jours sur 256 GPU.
Plusieurs logiciels permettent d’estimer les émissions de carbone des charges de travail de l’IA. Mais ils ne sont pas fiables dans tous les contextes et ne sont pas en mesure de saisir toutes les nuances. La nouvelle approche de l’Allen Institute for AI permet de gagner en précision.
Premièrement, elle enregistre l’utilisation de l’énergie des puces des serveurs sous la forme d’une série de mesures, plutôt que d’additionner leur utilisation au cours de la formation. Deuxièmement, elle aligne ces données d’utilisation avec une série de points de données indiquant les émissions locales par kilowattheure (kWh) d’énergie utilisée.
Mais si ce nouvel outil est plus sophistiqué que les anciens, il ne permet de suivre qu’une partie de l’énergie utilisée dans les modèles de formation par les GPU. Il ne mesure pas non plus l’énergie utilisée pour construire l’équipement informatique et pour refroidir le datacenter.
Cette méthode a permis néanmoins de constater que le principal facteur de réduction des émissions était la région géographique. Les grammes de CO2 par kWh variaient de 200 à 755. Outre le changement de lieu, les chercheurs ont testé deux techniques de réduction du CO2 en optimisant les lancements des modèles. Résultat, des réductions pouvant atteindre jusqu’à 80 % d’émission de CO2 pour les petits modèles de ML.
Mais la meilleure piste pour que les entreprises réduisent leurs émissions de CO2 en exploitant l’IA consiste d’abord à se demander si l’on a vraiment besoin d’un modèle de ML pour obtenir un résultat pertinent.
Dans l'actualité
- L’intelligence artificielle au service d’une meilleure efficacité énergétique des stations d’épuration
- Intelligence artificielle : l’Europe ne fait pas le poids face aux Américains et Chinois
- Détecter les populations touchées par la faim grâce à l’intelligence artificielle
- Jean-René Lèquepeys : « Avec l’IA, les smartphones vont jouer un rôle majeur dans la santé »
- Data center : de l’hydrogène vert pour limiter les émissions de CO2
- Carrefour de l’Industrie : le rendez-vous pour comprendre l’industrie du futur
- Optimiser les villes grâce à l’IA hybride
- Le stockage d’énergie à haute température : une solution économique
- Des piles à hydrogène pour alimenter les datacenters
- Les thèses du mois : « Qualité de l’air sous surveillance : mesures et règlementations »
- La mobilisation des citoyens pour la qualité de leur air
- Stress hydrique : les datacenters et les usines de processeurs cherchent des alternatives
- Le rôle du CO2 atmosphérique dans le changement climatique
- L’indispensable industrialisation du captage, du stockage et de la valorisation du CO2
- La récupération du CO2 industriel, le nouvel eldorado
- Les émissions de CO2 liées à l’énergie toujours en hausse