Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Antes, o investigador de sustentabilidade do Hugging Face fundou uma startup para fazer com que os números de emissão de carbono apareçam ao lado de cada conversa do ChatGPT
Hugging Face IA pesquisadora de sustentabilidade Sasha Luccioni deixa o cargo para fundar Sustainable AI Group, com o objetivo de fazer com que interfaces de IA como ChatGPT, Claude exibam dados de consumo de energia e emissões de carbono a cada consulta.
(Preâmbulo: A “verdade sobre o consumo de energia” das fazendas de Bitcoin foi revelada por imagens térmicas de satélite)
(Complemento de contexto: Pesquisa da Universidade da Califórnia sobre o fenômeno da “névoa cerebral” na IA: 14% dos trabalhadores estão loucos com agentes e automação, e 40% consideram sair)
Índice deste artigo
Alternar
Uma engenheira de software inicia um assistente de IA fornecido pela sua empresa, completando uma tarefa que poderia ser resolvida com uma busca tradicional. Ninguém sabe o consumo exato de energia dessa ação, incluindo a própria empresa de IA.
Sasha Luccioni passou quatro anos na Hugging Face, tentando tornar esse número visível. Ela não conseguiu convencer a indústria. Então ela saiu, preparando-se para continuar a pressão de fora.
A linha de pressão interna nas empresas está subindo
Luccioni descreveu, em entrevista à WIRED, um cenário cada vez mais comum: funcionários começam a questionar a gestão, “Você nos força a usar o Copilot, qual impacto isso tem nos nossos objetivos ESG?”
Atualmente, não há uma resposta padrão, pois nenhuma grande empresa de IA revela na interface do produto o consumo de energia e as emissões a cada consulta. Usuários de ChatGPT ou Claude não veem qualquer aviso sobre o impacto ambiental.
A demanda de Luccioni é direta: exibir os números de consumo de energia ao lado de cada diálogo de IA. Ela acredita que isso não é apenas uma questão de transparência, mas uma estratégia competitiva. Sua lógica é análoga ao fato de a Anthropic recusar o uso militar pelo governo dos EUA, ganhando vantagem de marca — qual empresa de IA que adotar centros de dados com energia renovável e divulgar publicamente pode obter uma vantagem de mercado diferenciada?
Essa demanda está ganhando suporte institucional. A legislação de IA da UE já inclui cláusulas de sustentabilidade, com as primeiras obrigações de reporte sendo implementadas. Na Ásia, países parceiros da Agência Internacional de Energia (IEA) também começaram a exigir transparência de centros de dados. A pressão regulatória está migrando do marginal para o núcleo.
Ela criou uma classificação de consumo de energia, mas grandes empresas recusam-se a participar
Durante seu tempo na Hugging Face, Luccioni criou o AIEnergyScore, uma classificação de eficiência energética de modelos de IA de código aberto, tentando comparar o consumo de energia de modelos de diferentes tamanhos sob um mesmo padrão.
O problema é que essa classificação só avalia os modelos dispostos a participar. Fornecedores de grandes modelos de linguagem, como OpenAI, Google, Anthropic, não enviaram dados.
Luccioni interpreta isso de forma contundente. Ela aponta que as grandes empresas de IA enfrentam um conflito de interesses estrutural: vendem tanto o uso de seus modelos quanto os recursos computacionais subjacentes. Quanto maior e mais caro o modelo, maior a receita de venda de capacidade computacional. Nesse modelo de negócio, incentivar o uso de modelos menores e mais eficientes equivale a reduzir receitas.
Sua crítica tem fundamentos concretos. Dados que ela acompanha há anos mostram que, na maioria dos cenários empresariais, modelos de classificação — ou seja, modelos leves treinados para tarefas específicas — têm sido os principais responsáveis pela produtividade de IA nos últimos anos, e não os grandes modelos de linguagem universais.
Por exemplo, uma tarefa de avaliar o humor de um e-mail de atendimento ao cliente pode ser feita por um modelo de classificação, que consome menos de 1% do poder de processamento de um GPT-4. Isso significa que, sem informações comparativas, as empresas podem estar usando modelos dez ou cem vezes maiores do que o necessário.
Sustainable AI Group: de pesquisadora a ativista
Após deixar a Hugging Face, Luccioni cofundou o Sustainable AI Group com Boris Gamazaychikov, ex-diretor de sustentabilidade da Salesforce. Essa parceria é deliberadamente complementar: uma vem do lado técnico de métricas, a outra do lado de governança de sustentabilidade empresarial.
O ponto de convergência é justamente o mais difícil de avançar atualmente: transformar a linguagem de responsabilidade social corporativa em critérios de decisão na compra de ferramentas de IA.
A posição de Luccioni não é contra o desenvolvimento de IA. Sua tese central é que estabelecer uma relação entre a complexidade da tarefa e o tamanho do modelo é uma decisão de engenharia que pode reduzir custos e emissões, e não apenas uma questão moral. Uma empresa que sistematicamente escolha modelos adequados à tarefa, com base em critérios objetivos, pode economizar recursos computacionais de forma significativa.
O objetivo de sua nova organização é fornecer validação externa e apoio a essa estrutura de decisão, além de continuar pressionando as empresas de IA a divulgar dados de consumo de energia.
O cronograma regulatório da UE oferece um ponto de ancoragem externo para essa iniciativa. Quando as empresas começarem a reportar dados de sustentabilidade sob a legislação de IA, a falta de informações de consumo de energia por parte dos fornecedores de IA se tornará uma questão de conformidade, elevando o problema de uma questão ética para um risco regulatório. Essa pode ser a mudança estrutural mais próxima de acontecer.