Futures
Accédez à des centaines de contrats perpétuels
CFD
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 40 modèles d’IA, avec 0 % de frais supplémentaires
Avant, le chercheur en durabilité de Hugging Face a créé une entreprise, pour faire apparaître le chiffre des émissions de carbone à côté de chaque conversation de ChatGPT.
Hugging Face AI chercheur en durabilité Sasha Luccioni quitte son poste pour fonder Sustainable AI Group, dont l’objectif est d’afficher la consommation d’énergie et les chiffres d’émissions de carbone à côté de chaque requête dans des interfaces AI comme ChatGPT, Claude, etc.
(Précédemment : la « vérité sur la consommation d’énergie » des mines de Bitcoin, révélée par imagerie thermique satellite)
(Complément : étude de l’Université de Californie sur le phénomène de « brouillard cérébral AI » : 14 % des employés sont devenus fous à cause des agents et de l’automatisation, avec 40 % envisageant de quitter leur emploi)
Table des matières de cet article
Toggle
Un ingénieur logiciel lance l’assistant AI fourni par son entreprise, accomplissant une tâche qui pourrait être résolue par une recherche traditionnelle. La consommation électrique de cette action, personne ne connaît le chiffre exact, y compris la société d’IA elle-même.
Sasha Luccioni a passé quatre ans chez Hugging Face, en essayant de rendre ce chiffre visible. Elle n’a pas réussi à convaincre l’industrie. Elle quitte donc son poste, prête à continuer la pression de l’extérieur.
La ligne de pression interne à l’entreprise, qui monte
Luccioni décrit dans une interview à WIRED un scénario de plus en plus fréquent : des employés commencent à demander à la direction, « Vous nous forcez à utiliser Copilot, quel impact cela a-t-il sur nos objectifs ESG ? »
Cette question n’a pas de réponse standard pour l’instant, car aucune grande entreprise d’IA ne révèle dans ses interfaces la consommation d’énergie et les données carbone à chaque requête. Lorsqu’un utilisateur utilise ChatGPT ou Claude, il ne voit aucun indicateur de coût environnemental.
L’appel de Luccioni est direct : faire apparaître les chiffres de consommation d’énergie à côté de chaque dialogue AI. Elle considère cela comme une question de transparence, mais aussi comme une stratégie concurrentielle. Son argumentation fait un parallèle avec Anthropic, qui refuse d’utiliser l’IA à des fins militaires américaines pour renforcer sa marque — la première entreprise d’IA à adopter des centres de données alimentés par des énergies renouvelables et à divulguer ces données pourrait obtenir un avantage différenciateur sur le marché.
Cette revendication commence à trouver un appui institutionnel. La législation européenne sur l’IA inclut désormais des clauses de durabilité, avec les premières obligations de reporting en cours de mise en œuvre. En Asie, notamment dans les pays partenaires de l’Agence Internationale de l’Énergie (AIE), la transparence des centres de données commence aussi à être exigée. La pression réglementaire passe du périphérique au cœur du système.
Elle a créé un classement de consommation d’énergie, mais les grandes entreprises refusent de participer
Chez Hugging Face, Luccioni a créé AIEnergyScore, un classement open source de l’efficacité énergétique des modèles d’IA, visant à comparer la consommation électrique de modèles de différentes tailles selon une norme commune.
Le problème, c’est que ce classement ne concerne que les modèles qui acceptent d’y participer. Les principaux fournisseurs de grands modèles de langage, comme OpenAI, Google, Anthropic, n’ont pas soumis de données.
Luccioni en tire une conclusion ferme : ces grandes entreprises d’IA ont un conflit d’intérêt structurel : elles vendent à la fois l’accès à leurs modèles et la capacité de calcul sous-jacente. Plus le modèle est grand et coûteux, plus elles vendent de puissance de calcul. Dans ce modèle commercial, encourager les utilisateurs à se tourner vers des modèles plus petits et plus économes revient à réduire leurs revenus.
Ses critiques sont étayées par des données concrètes. Elle suit depuis longtemps des chiffres qui montrent que, dans la majorité des cas d’usage en entreprise, ce sont des modèles de classification, c’est-à-dire des modèles légers entraînés pour des tâches spécifiques, qui ont historiquement porté la majorité de la productivité AI, plutôt que des grands modèles de langage universels.
Pour une tâche comme l’évaluation du sentiment d’un email client, un modèle de classification dédié peut nécessiter moins d’un pour cent de la puissance d’un GPT-4. Cela signifie qu’en l’absence d’informations comparatives, les entreprises utilisent systématiquement des modèles dix ou cent fois plus grands que nécessaire.
Sustainable AI Group : de chercheuse à actrice de pression
Après avoir quitté Hugging Face, Luccioni a cofondé Sustainable AI Group avec Boris Gamazaychikov, ancien directeur de la durabilité chez Salesforce. La complémentarité est volontaire : l’un vient du côté de la mesure technique, l’autre de la gouvernance durable en entreprise.
Leur intersection concerne précisément le point le plus difficile à faire évoluer : transformer le langage des départements RSE en critères concrets lors de l’achat d’outils d’IA.
Luccioni ne s’oppose pas au développement de l’IA. Son argument central est que la relation entre la complexité des tâches et la taille des modèles peut être une décision d’ingénierie permettant à la fois de réduire les coûts et l’empreinte carbone, plutôt qu’un simple enjeu moral. Une entreprise qui choisit systématiquement un modèle adapté à la tâche, en fonction de sa complexité, pourrait réaliser des économies substantielles en calcul.
Son nouvel objectif est de fournir un cadre de décision externe et un soutien à la plaidoyer, tout en continuant à faire pression sur les entreprises d’IA pour qu’elles divulguent leurs chiffres de consommation.
Le calendrier réglementaire européen donne un point d’ancrage extérieur à cette initiative. Lorsqu’une entreprise devra rendre compte de ses données de durabilité dans le cadre de la législation sur l’IA, le fait que « les fournisseurs d’IA ne fournissent pas d’informations sur la consommation » passera du domaine moral à celui du risque de conformité. C’est probablement le levier le plus proche d’un changement structurel.