Avant, le chercheur en durabilité de Hugging Face a créé une entreprise, pour faire apparaître le chiffre des émissions de carbone à côté de chaque conversation de ChatGPT.

Hugging Face AI chercheur en durabilité Sasha Luccioni quitte son poste pour fonder Sustainable AI Group, dont l’objectif est d’afficher la consommation d’énergie et les chiffres d’émissions de carbone à côté de chaque requête dans des interfaces AI comme ChatGPT, Claude, etc.
(Précédemment : la « vérité sur la consommation d’énergie » des mines de Bitcoin, révélée par imagerie thermique satellite)
(Complément : étude de l’Université de Californie sur le phénomène de « brouillard cérébral AI » : 14 % des employés sont devenus fous à cause des agents et de l’automatisation, avec 40 % envisageant de quitter leur emploi)

Table des matières de cet article

Toggle

  • La ligne de pression interne à l’entreprise, qui monte
  • Elle a créé un classement de consommation d’énergie, mais les grandes entreprises refusent de participer
  • Sustainable AI Group : de chercheuse à actrice de pression

Un ingénieur logiciel lance l’assistant AI fourni par son entreprise, accomplissant une tâche qui pourrait être résolue par une recherche traditionnelle. La consommation électrique de cette action, personne ne connaît le chiffre exact, y compris la société d’IA elle-même.

Sasha Luccioni a passé quatre ans chez Hugging Face, en essayant de rendre ce chiffre visible. Elle n’a pas réussi à convaincre l’industrie. Elle quitte donc son poste, prête à continuer la pression de l’extérieur.

La ligne de pression interne à l’entreprise, qui monte

Luccioni décrit dans une interview à WIRED un scénario de plus en plus fréquent : des employés commencent à demander à la direction, « Vous nous forcez à utiliser Copilot, quel impact cela a-t-il sur nos objectifs ESG ? »

Cette question n’a pas de réponse standard pour l’instant, car aucune grande entreprise d’IA ne révèle dans ses interfaces la consommation d’énergie et les données carbone à chaque requête. Lorsqu’un utilisateur utilise ChatGPT ou Claude, il ne voit aucun indicateur de coût environnemental.

L’appel de Luccioni est direct : faire apparaître les chiffres de consommation d’énergie à côté de chaque dialogue AI. Elle considère cela comme une question de transparence, mais aussi comme une stratégie concurrentielle. Son argumentation fait un parallèle avec Anthropic, qui refuse d’utiliser l’IA à des fins militaires américaines pour renforcer sa marque — la première entreprise d’IA à adopter des centres de données alimentés par des énergies renouvelables et à divulguer ces données pourrait obtenir un avantage différenciateur sur le marché.

Cette revendication commence à trouver un appui institutionnel. La législation européenne sur l’IA inclut désormais des clauses de durabilité, avec les premières obligations de reporting en cours de mise en œuvre. En Asie, notamment dans les pays partenaires de l’Agence Internationale de l’Énergie (AIE), la transparence des centres de données commence aussi à être exigée. La pression réglementaire passe du périphérique au cœur du système.

Elle a créé un classement de consommation d’énergie, mais les grandes entreprises refusent de participer

Chez Hugging Face, Luccioni a créé AIEnergyScore, un classement open source de l’efficacité énergétique des modèles d’IA, visant à comparer la consommation électrique de modèles de différentes tailles selon une norme commune.

Le problème, c’est que ce classement ne concerne que les modèles qui acceptent d’y participer. Les principaux fournisseurs de grands modèles de langage, comme OpenAI, Google, Anthropic, n’ont pas soumis de données.

Luccioni en tire une conclusion ferme : ces grandes entreprises d’IA ont un conflit d’intérêt structurel : elles vendent à la fois l’accès à leurs modèles et la capacité de calcul sous-jacente. Plus le modèle est grand et coûteux, plus elles vendent de puissance de calcul. Dans ce modèle commercial, encourager les utilisateurs à se tourner vers des modèles plus petits et plus économes revient à réduire leurs revenus.

Ses critiques sont étayées par des données concrètes. Elle suit depuis longtemps des chiffres qui montrent que, dans la majorité des cas d’usage en entreprise, ce sont des modèles de classification, c’est-à-dire des modèles légers entraînés pour des tâches spécifiques, qui ont historiquement porté la majorité de la productivité AI, plutôt que des grands modèles de langage universels.

Pour une tâche comme l’évaluation du sentiment d’un email client, un modèle de classification dédié peut nécessiter moins d’un pour cent de la puissance d’un GPT-4. Cela signifie qu’en l’absence d’informations comparatives, les entreprises utilisent systématiquement des modèles dix ou cent fois plus grands que nécessaire.

Sustainable AI Group : de chercheuse à actrice de pression

Après avoir quitté Hugging Face, Luccioni a cofondé Sustainable AI Group avec Boris Gamazaychikov, ancien directeur de la durabilité chez Salesforce. La complémentarité est volontaire : l’un vient du côté de la mesure technique, l’autre de la gouvernance durable en entreprise.

Leur intersection concerne précisément le point le plus difficile à faire évoluer : transformer le langage des départements RSE en critères concrets lors de l’achat d’outils d’IA.

Luccioni ne s’oppose pas au développement de l’IA. Son argument central est que la relation entre la complexité des tâches et la taille des modèles peut être une décision d’ingénierie permettant à la fois de réduire les coûts et l’empreinte carbone, plutôt qu’un simple enjeu moral. Une entreprise qui choisit systématiquement un modèle adapté à la tâche, en fonction de sa complexité, pourrait réaliser des économies substantielles en calcul.

Son nouvel objectif est de fournir un cadre de décision externe et un soutien à la plaidoyer, tout en continuant à faire pression sur les entreprises d’IA pour qu’elles divulguent leurs chiffres de consommation.

Le calendrier réglementaire européen donne un point d’ancrage extérieur à cette initiative. Lorsqu’une entreprise devra rendre compte de ses données de durabilité dans le cadre de la législation sur l’IA, le fait que « les fournisseurs d’IA ne fournissent pas d’informations sur la consommation » passera du domaine moral à celui du risque de conformité. C’est probablement le levier le plus proche d’un changement structurel.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épinglé