Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A expansão da IA está a sobrecarregar a rede elétrica, 7 lógicas de investimento em energia que você deve conhecer
A energia é realmente o principal gargalo do crescimento inteligente.
Autor: Joseph Ayoub
Tradução: Deep Tide TechFlow
Introdução do Deep Tide: Todos estão discutindo sobre capacidade computacional e modelos, mas este artigo levanta uma questão mais fundamental: a oferta de energia consegue acompanhar? O Morgan Stanley prevê que em 2028 os EUA enfrentarão um déficit de 45 GW de eletricidade, o prazo de entrega de grandes transformadores já chega a 24 a 36 meses, enquanto o consumo de energia dos centros de dados de IA cresce a uma taxa de 15% ao ano. A partir disso, o autor deduz 7 lógicas de investimento, desde a fragmentação da rede elétrica até transformadores sólidos e refrigeração de dois líquidos, ângulos pouco comuns, mas cruciais.
O texto completo é o seguinte:
A NVIDIA lançou recentemente o quadro “A IA é um bolo de cinco camadas”. Hoje, quero argumentar que a camada de energia é a restrição vinculativa do crescimento inteligente e explorar suas consequências.
O progresso da civilização humana é o resultado da nossa capacidade de dominar ferramentas — seja um martelo, fogo, cavalos, uma impressora, telefone, lâmpada, máquina a vapor, rádio ou IA. Essas “ferramentas” são a forma como a humanidade transforma energia em produtividade.
Fundamentalmente, é através da captura de energia e do direcionamento dessa energia para um objetivo com ferramentas que elevamos a produtividade humana.
Em resumo, a lógica central do progresso da civilização humana é a seguinte:
Durante a maior parte da história humana, as pessoas confiaram na energia do corpo humano e nas mãos como ferramentas para avançar objetivos, seja na agricultura ou na escrita. A impressora é um caso típico de como a energia e as ferramentas progrediram em conjunto — popularizada por Gutenberg em 1440. Antes dessa inovação, a humanidade consumia sua própria energia, escrevendo informações à mão com uma caneta (ferramenta), de forma extremamente ineficiente. A impressora inovou novas ferramentas, aumentando significativamente a eficiência do uso da energia humana através da impressão mecânica, levando a um aumento da produtividade em várias ordens de grandeza. No entanto, de 1450 a 1800, por quase 350 anos, a impressora quase não teve inovações substanciais. Somente quando a humanidade dominou uma energia mais poderosa — o carvão — a equação do lado da energia mudou. Em 1814, Friedrich Koenig inventou a impressora a vapor, adaptando a impressora à inovação energética predominante da época — o carvão, aumentando a eficiência em 5 vezes. Desde então, a impressora continuou a se adaptar eficientemente a novas fontes de energia, com a produção aumentando de 250 cópias por hora para 30.000 cópias 50 anos depois, e hoje já chega a milhões de cópias.
Assim, a contínua inovação de novas ferramentas, rompendo as fronteiras do domínio da energia e aumentando a eficiência das novas ferramentas em relação à energia disponível — esse processo contínuo persiste até hoje. Hoje, a inteligência é a nova forma de produtividade em que nos concentramos, e a energia é seu combustível. A chave é que a nossa capacidade de continuar promovendo o crescimento inteligente depende de quanta energia sustentável e confiável conseguimos produzir para impulsionar as ferramentas (GPU) e direcioná-las para os objetivos (inteligência).
Este tema se correlaciona com a Escala de Kardashev — que mede o nível de progresso tecnológico de uma civilização pela quantidade de energia que ela consegue dominar, desde planetas até estrelas, galáxias, universo e multiverso. A quantidade de energia que conseguimos dominar marca quão longe progredimos como civilização. Historicamente, essa regra sempre se aplicou e não será diferente no futuro. A capacidade de dominar energia é fundamental para o progresso da civilização.
O argumento central deste artigo é: a demanda por energia está rapidamente superando a oferta, e esse é o principal gargalo para o crescimento inteligente. Vou explorar os impactos de primeiro e segundo nível deste argumento.
Por que a oferta de energia está desacelerando?
A fissão nuclear foi descoberta em 1939 e representa a última grande transformação no campo da energia desde o surgimento da civilização humana. No entanto, devido ao acidente de Chernobyl e ao compromisso global de transição para energias renováveis, desde 1950 houve uma clara desconexão entre a inovação em ferramentas e o progresso energético. Em 1950, a produção global de energia era de 2600 GW, e hoje é de 19000 GW (um aumento de 7,3 vezes). Isso parece um salto, mas esse crescimento linear gradual está muito aquém do crescimento da computação e da tecnologia moderna, e mal supera o crescimento populacional de 3,5 vezes no mesmo período.
Em contraste, os intervalos entre inovações significativas em ferramentas estão diminuindo. A primeira impressora levou 364 anos até sua próxima grande melhoria, a primeira viagem de avião até a viagem espacial levou 58 anos, do primeiro microprocessador à internet foram 20 anos, enquanto hoje os grandes saltos em GPU ocorrem a cada 2 anos. Estamos vivendo em uma janela de aceleração na melhoria da eficiência das ferramentas, onde múltiplas inovações se sobrepõem em ciclos cada vez mais rápidos. Desde IA a criptografia e computação quântica, a velocidade com que novas inovações são descobertas e os avanços em eficiência estão se acelerando — essa é a lei do retorno acelerado.
Hoje, os centros de dados representam 1,5% do consumo global de eletricidade, e espera-se que cheguem a 3% até 2030 — um percurso que levou 50 anos para a máquina a vapor percorrer, em apenas 6 anos. A diferença chave entre a Revolução Industrial e a atual explosão inteligente é que a Revolução Industrial construiu sua própria oferta de energia em sincronia com o crescimento da demanda — carvão, canais, redes ferroviárias e as máquinas que as consumiam expandiram-se em paralelo. Cada revolução energética anterior estabeleceu sua própria cadeia de suprimentos enquanto se expandia em escala; a IA herdou uma cadeia de suprimentos já existente, que já começou a desmoronar.
A rede elétrica simplesmente não está preparada para lidar com o crescimento anual de 15% no consumo de energia da explosão inteligente, enquanto a demanda de eletricidade nos EUA teve quase zero crescimento na última década. As fissuras já começaram a aparecer nos EUA: a fila de conexões à rede elétrica atingiu um recorde histórico, o tempo de entrega de grandes transformadores já alcançou uma média de 24 a 36 meses, e até 2025 os transformadores elétricos enfrentarão um déficit de 30% na oferta. O Morgan Stanley estima que, apenas nos EUA, até 2028 haverá um déficit de 45 GW de eletricidade, equivalente à demanda elétrica de 33 milhões de lares americanos. Acredito que esse déficit pode ser muito maior.
A questão é clara: a humanidade precisa expandir radicalmente a escala de energia para acompanhar as inovações em IA, robótica e veículos autônomos.
O déficit de energia iminente: impactos de primeiro e segundo nível
As consequências do iminente déficit de energia são de importância histórica: à medida que a demanda por energia dispara e a oferta fica aquém, podemos ver o surgimento de um mercado de energia quase privatizado.
Os provedores de serviços em nuvem de grande escala (Hyperscaler) já começaram a construir suas próprias instalações de geração de energia atrás do medidor (BTM) e planejam expandir para centros de dados movidos a energia nuclear, uma tendência que já está começando a se materializar. Acredito que essa tendência só se tornará mais evidente.
A seguir, apresento 7 argumentos, todos derivados da explosão inteligente e seus impactos na oferta de eletricidade em constante tensão.
Argumento um: Fragmentação da rede elétrica — o poder computacional se moverá em direção à energia, e não o contrário
Em regiões onde a demanda por poder computacional é alta, as jurisdições com abundância de energia e regulamentação mais flexível obterão um valor desproporcional à medida que o sistema energético se fragmenta.
Quando a demanda por energia começa a exceder a oferta, a eletricidade se tornará politicamente sensível. As residências têm direito a voto, enquanto os centros de dados não. Em um cenário de déficit energético, a rede elétrica é improvável que mantenha neutralidade, mas priorizará a demanda de energia residencial em relação à industrial por meio de preços, restrições de acesso ou limites suaves.
Dado que o poder computacional é extremamente sensível a latência, tempo online e confiabilidade, operar em jurisdições que priorizam o fornecimento residencial de eletricidade é fundamentalmente inviável. À medida que o acesso à rede se torna instável ou politizado, as cargas de trabalho computacionais se moverão para um modelo de geração de energia BTM, onde a eletricidade pode ser diretamente garantida, controlada e precificada.
Isso impulsionará uma transformação estrutural: o poder computacional se deslocará para economias com abundância de energia e regulamentação mais flexível. Os vencedores serão aqueles que conseguirem integrar terra, conectividade, geração de energia e fibra ótica em sistemas que possam ser implantados e replicados, e as jurisdições onde esses sistemas estão localizados também se beneficiarão.
Argumento dois: A energia se tornará uma vantagem competitiva, e a autossuficiência BTM se tornará a capacidade central que distingue os provedores de poder computacional
Na minha opinião, este é o impacto de primeiro nível mais crítico da intensificação do déficit energético. Em um mundo onde a demanda por energia excede a oferta, obter eletricidade confiável e barata é uma vantagem estrutural que cresce com o tempo. Além disso, a prioridade para os centros de dados ocuparem a eletricidade da rede é politicamente insustentável, e essa é precisamente a trajetória atual da energia. A crescente pressão sobre a rede elétrica nacional forçará os provedores de poder computacional a construir sua própria geração de energia; os provedores de serviços em nuvem de grande escala já iniciaram essa tendência. Infraestruturas sem geração de energia BTM serão diretamente eliminadas.
Essencialmente, as empresas que possuem eletricidade ganharão, enquanto as que alugam eletricidade perderão. Sem geração de energia BTM, os provedores de poder computacional enfrentarão problemas de confiabilidade elétrica (fatídicos), aumento de custos e restrições de uso de energia. Os REITs de hospedagem pura sem geração própria (como Equinix, Digital Realty) perderão valor em relação aos operadores verticalmente integrados. As empresas que combinam geração de energia com hospedagem de poder computacional estão construindo as defesas mais profundas (Crusoe, Iren e alguns provedores de serviços em nuvem de grande escala). Isso pode ser expresso como uma negociação longa e curta, mas eu prefiro enfatizar os vencedores da integração vertical.
Argumento três: A padronização BTM estimulará a inovação — de transformadores tradicionais a transformadores sólidos, de dispositivos de comutação tradicionais a dispositivos de comutação digitais
Transformadores tradicionais aumentam ou diminuem a tensão da eletricidade em redes de corrente alternada. Devido ao seu tamanho e materiais, os prazos de entrega já atingem 24 a 36 meses, e existe um déficit de 30% na oferta. Eles também são uma tecnologia do século 19, fabricada manualmente em torno de materiais restritos. O ponto crucial é que cada megawatt de geração de energia BTM deve ser convertido, ajustado e distribuído para o lado do poder computacional, e não há como contornar os transformadores.
Transformadores sólidos substituem tudo isso por dispositivos eletrônicos de potência de alta frequência. Eles são menores, mais rápidos, totalmente controláveis, lidando dentro de uma única unidade com conversão de corrente alternada para corrente contínua, regulação de tensão e corrente bidirecional. A fabricação também é mais simples, dependendo de semicondutores de potência de carbeto de silício/nitreto de gálio, em vez de enormes bobinas de cobre e tanques de óleo. À medida que o BTM se torna a arquitetura padrão, o dispositivo entre energia e poder computacional se tornará o gargalo, e esse dispositivo é o transformador sólido (SST).
Os dispositivos de comutação também enfrentam um atraso de 80 semanas e são a camada de controle entre geração e carga, responsáveis por roteamento de energia, isolamento de falhas e proteção do sistema. Semelhante aos transformadores, os dispositivos de comutação também são produtos intensivos em mão de obra, fabricados em torno de materiais restritos e quase não mudaram desde a década de 1880.
Os dispositivos de comutação digitais substituem tudo isso por dispositivos eletrônicos de potência sólidos. Mais rápidos, programáveis e totalmente controláveis, possibilitando detecção de falhas em tempo real, isolamento remoto e roteamento dinâmico de carga. Igualmente importante, eles se expandem como produtos eletrônicos, e não como equipamentos industriais.
Uma observação acessória sobre o cobre: tenho uma visão construtiva em relação ao cobre. O cobre é a autoestrada da eletricidade, e será a principal commodity necessária em um mundo cada vez mais eletrificado. No entanto, a forma como essa transação é expressa é sutil — as mineradoras tradicionais como transação têm margens de lucro baixas e podem ser comprimidas ao longo do tempo. Mas na ponta do produto acabado, onde o cobre é insubstituível e o tempo é limitado, existe um gargalo significativo e espaço para acumulação de valor futuro. Fabricantes de cabos como Prysmian e Nexans vendem restrições de produto acabado, em vez de matérias-primas, e à medida que os prazos de entrega dos transformadores se alongam, isso já não é mais um mercado de commodities.
Argumento quatro: O custo de carbono da IA está se tornando politicamente insustentável, forçando soluções baseadas em energia solar e baterias
A construção de IA enfrenta um problema de carbono que ainda não foi precificado, e isso é uma restrição política. Os centros de dados aumentam os preços da eletricidade, consomem grandes quantidades de água e aumentam as emissões locais. Isso já se manifestou: projetos de centros de dados de 18 bilhões de dólares foram completamente cancelados, e projetos de 46 bilhões de dólares foram adiados.
Hoje, cerca de 56% da eletricidade dos centros de dados vem de combustíveis fósseis. O gás natural resolveu o problema da velocidade de implantação, mas é politicamente frágil. À medida que a demanda aumenta, a resistência à expansão da energia fóssil cresce, forçando a formação recente de um sistema misto de gás natural, energia nuclear e renováveis.
Embora o gás natural tenha atuado como uma ponte de curto prazo na explosão dos centros de dados, em uma perspectiva de tempo mais longa, a abundância de energia não será resolvida pela extração de combustíveis, mas sim pela captura de energia. O sol fornece à Terra uma quantidade de energia várias ordens de magnitude maior do que a que a humanidade consome. A restrição não está na disponibilidade, mas na conversão, armazenamento e implantação.
A energia solar não é uma solução imediata para a demanda de energia do poder computacional, mas é a solução final.
A captura solar comercial atual captura cerca de 22% da energia incidente. Cada ponto de melhoria na eficiência de conversão reduzirá o custo por megawatt, aproximando a energia solar do custo de geração de eletricidade escalável nos sistemas BTM.
O armazenamento em baterias torna-se um componente central dessa arquitetura. Não apenas para suavizar a intermitência, mas também como uma camada de receita. A arbitragem de armazenamento e o equilíbrio de carga transformarão os centros de dados de custos históricos em contribuidores de lucro para os operadores BTM.
Neste argumento, os vencedores são as empresas verticalmente integradas, cobrindo captura, armazenamento e distribuição: desenvolvedores de energia solar especializados com contratos BTM, fabricantes de baterias com produtos em nível de rede e de site, e poucos operadores que conseguem combinar geração de energia própria com hospedagem de poder computacional.
A energia solar é um jogo de aquisição e fabricação, as baterias são a camada de restrição e monetização, integrando lucros de captura, enquanto a tecnologia de ponta ainda é uma opção e não um cenário básico. Nesse aspecto, a Tesla pode continuar a ser a grande vencedora, mas eu prefiro limitar-me a alvos não consensuais.
Argumento cinco: O resfriamento se torna uma restrição de primeiro nível, e o resfriamento direto a líquido de duas fases (D2C) se tornará essencial em aplicações de ponta
Outra consequência é o surgimento da tecnologia de resfriamento direto a líquido de duas fases. Francamente, este argumento também incorpora meu próprio julgamento: a densidade de potência dos chips está crescendo em uma trajetória parabólica, e isso representa um desafio termodinâmico cada vez mais complicado. O resfriamento a ar tradicional é insustentável por várias razões, a principal sendo que não funciona em chips de alta densidade, além de problemas ambientais relacionados ao consumo de água e eletricidade.
Primeiro, o resfriamento D2C avança a densidade e o desempenho sem as limitações de gerenciamento térmico — essa é a questão-chave da expansão. A realidade atual do mercado é que o resfriamento de fase única domina, porque é mais simples: a água fria circula através de placas frias para resfriar os chips, mas tem um limite conhecido. Quando a densidade de potência dos chips ultrapassa 1500W, a transição para o resfriamento de duas fases se tornará inevitável. O resfriamento de duas fases bombeia um líquido dielétrico ao redor do chip, projetado para ferver a baixa temperatura — a mudança de fase de líquido para gás aumenta significativamente a eficiência de resfriamento.
O resfriamento de duas fases pode reduzir o consumo de energia em 20% e a quantidade de água em 48%. Essa melhoria de desempenho permite pacotes de chips mais densos, aumentando o desempenho e, em última análise, gerando uma demanda ainda maior por resfriamento de alto desempenho.
A Zutacore, uma das empresas líderes em DTC de dois fases, demonstrou um resfriamento D2C de dois fases usando líquido dielétrico (em vez de água), reduzindo o consumo de energia em 82% e eliminando completamente o consumo de água — esse resultado foi validado por pesquisas da Vertiv e Intel. A Zutacore é um operador privado a ser observado neste campo, e, além disso, uma pesquisa mais aprofundada sobre fornecedores de líquidos dielétricos também pode ser valiosa.
Argumento seis: A energia nuclear pode atuar como uma ponte em direção à abundância de energia e fornecimento estável, mas não é a solução de longo prazo para a expansão energética
Enquanto escrevia este artigo, inicialmente pensei que a energia nuclear seria uma boa maneira de preencher a lacuna de energia a curto prazo. A realidade é que o custo de implantação de reatores modulares pequenos (SMR) é de 5 a 10 vezes o de sistemas de gás natural comparáveis (10.000 a 15.000 dólares por quilowatt), tornando a implantação em larga escala e expansão praticamente inviáveis.
A energia nuclear resolve problemas de confiabilidade, mas não de velocidade ou custo — especialmente em instalações BTM. Isso permite fornecer eletricidade de carga básica estável e programável em situações onde a confiabilidade não pode ser negociada. Portanto, a energia nuclear tem seu papel em um déficit energético, como uma ponte e não como fornecimento central.
A energia nuclear é limitada pelo ciclo de combustível e pelo tempo de construção. Os reatores avançados de hoje exigem urânio de baixa concentração de alta abundância (HALEU), e esse combustível praticamente não possui oferta comercial hoje. Mesmo após a construção de um reator, a capacidade de fornecê-lo com combustível se torna a principal restrição à velocidade de expansão da energia nuclear.
Portanto, é improvável que a energia nuclear se torne a solução marginal para a expansão energética — ela é lenta para entrar no mercado, intensiva em capital e limitada pela infraestrutura e pelo combustível. Em contraste, os sistemas que estão se expandindo mais rapidamente — o gás natural a curto prazo, e a energia solar e o armazenamento a longo prazo — são as opções para reduzir a lacuna.
O gargalo investível não são os reatores, mas sim o combustível. À medida que a demanda por SMR aumenta, a concentração de urânio de alta enriquecimento se tornará um elo crucial — um gargalo que não está relacionado a nenhum tipo específico de reator, independentemente de qual design eventualmente prevaleça, o valor se acumulará aqui.
Argumento sete: Surge uma nova classe de grupos de infraestrutura energética; integradores verticais transformarão eletricidade em capacidade computacional
O gargalo da infraestrutura de IA não está apenas na energia, mas também na capacidade de transformar energia em computação utilizável em grande escala.
Na década de 1870, assim como a eletricidade, o petróleo não era escasso, mas havia problemas na refinação e distribuição. Rockefeller construiu uma empresa — uma das maiores da história (Standard Oil) — através da integração vertical da extração de petróleo, refinação e distribuição para lares.
A revolução inteligente segue o mesmo padrão; a eletricidade é o petróleo. A eletricidade é abundante, mas a conversão confiável da eletricidade em capacidade computacional enfrenta restrições em termos de entrega de energia, resfriamento, conectividade e permissões. A refinação da eletricidade é onde está o valor. Cada camada adicional de propriedade aumenta a confiabilidade, reduz os custos e gera margem de lucro, fazendo com que a integração vertical se auto-reforce.
As grandes empresas são a camada de distribuição deste sistema e também os terminais de consumo de computação. No entanto, a oportunidade estrutural reside na infraestrutura que os distribuidores são forçados a comprar. Isso cria uma nova classe de grupos de infraestrutura energética, que controlam geração, conversão, resfriamento e hospedagem em uma única operação.
A expressão mais clara é a de operadores verticalmente integrados no mercado privado, como Crusoe e Lancium, e plataformas de computação nativas no mercado público, como Iren e Core Scientific, que já possuem a base mais difícil de replicar: energia.
As empresas que controlam o fluxo de eletricidade para os racks estão construindo as defesas mais profundas na economia da IA. O software não pode devorar a infraestrutura física.