Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
O poder de computação está a ser re-centralizado: Depois da redução de preços da DeepSeek, quem vai controlar a infraestrutura básica da IA?
null
——Começando pela palestra de Gonka na LA Hacks 2026
26 de abril, DeepSeek anuncia nova precificação da série API V4: toda a série com cache de entrada com preço reduzido para um décimo do preço de lançamento, e após uma oferta limitada do versão Pro, o custo de processamento de um milhão de tokens cai para apenas 0,025 yuan — quase cem vezes mais barato do que há um ano. O setor de capacidade computacional na Ações atingiu o limite máximo de alta, e o sentimento do mercado está em ebulição.
Mas, por trás dos aplausos, há uma questão que ninguém discute abertamente: à medida que os modelos ficam cada vez mais baratos, o poder de computação necessário para executá-los está se concentrando cada vez mais.
Os dados não mentem. No quarto trimestre de 2025, os quatro principais provedores de nuvem — Microsoft, Amazon, Meta e Google — aumentaram seus gastos de capital em 64% em relação ao ano anterior, totalizando 118,6 bilhões de dólares; espera-se que o gasto total de capital em 2026 aumente mais 53% em relação ao ano anterior, atingindo 570,8 bilhões de dólares. Na mesma época, o Google elevou sua meta de envio de chips TPU em 50%, para 6 milhões de unidades. O ciclo de entrega da série H100 da Nvidia já chega a vários meses em alguns mercados.
O controle de preços na camada de modelos está se inclinando para os desenvolvedores, mas o controle na camada de capacidade computacional está se concentrando mais rapidamente nas mãos de poucos gigantes. Essa é uma contradição silenciosa, mas profunda, na era da IA.
Nesse contexto, em 24 de abril de 2026, os cofundadores do protocolo Gonka, Daniil e David Liberman, subiram ao palco principal da LA Hacks 2026. Este maior hackathon universitário da UCLA, este ano com os irmãos Liberman como principais palestrantes, diante de centenas de engenheiros de ponta que estão prestes a ingressar na indústria. A questão que eles levantaram, neste momento, soa especialmente clara: será que ainda dá tempo de descentralizar a capacidade computacional?
A lógica da redução de preços do DeepSeek V4 parece, superficialmente, um benefício de eficiência trazido pelo avanço tecnológico — o novo mecanismo de atenção comprime a dimensão Token, combinando atenção esparsa DSA, reduzindo drasticamente a demanda por cálculo e memória de vídeo. Mas a continuidade dessa redução depende de uma premissa: que haja capacidade computacional suficiente e barata em algum lugar.
A realidade é que essa fonte de capacidade computacional “suficientemente abundante” está se concentrando rapidamente em poucos nós ao redor do mundo. Michael Hurlston, CEO da líder em comunicações ópticas Lumentum, afirmou recentemente que, com a tendência atual, a capacidade da empresa estará quase totalmente esgotada até 2028. Não é uma crise de uma única empresa, mas uma tensão coletiva na cadeia de suprimentos de infraestrutura de IA, diante de uma demanda de expansão acelerada.
Daniil usou uma comparação simples, mas poderosa, em sua palestra na LA Hacks: a capacidade de mineração do Bitcoin já ultrapassou a soma dos centros de dados em nuvem do Google, Microsoft e Amazon — mas o que esses recursos estão fazendo? Resolvendo um enigma de hash que ninguém precisa de resposta. A capacidade ociosa de GPUs ao redor do mundo é semelhante: placas gráficas em máquinas de jogadores, servidores em laboratórios universitários, recursos de provedores de nuvem de pequeno e médio porte — tudo isso é enorme, mas, por falta de mecanismos de coordenação, não pode ser utilizado para inferência de IA.
O que Gonka tenta resolver é exatamente esse problema de coordenação — usando um mecanismo de incentivo baseado na prova de trabalho, para organizar as GPUs ociosas dispersas globalmente em uma rede capaz de realizar tarefas reais de inferência de IA.
A redução de preços do DeepSeek gerou um amplo debate na internet chinesa sobre “IA para todos”. Mas há um detalhe que tem sido negligenciado: a redução é no “preço de chamada”, não no “custo de capacidade”. Com a escala de aplicações de IA crescendo exponencialmente, o volume de chamadas de inferência também aumenta — segundo previsões do setor, até 2026, a inferência representará cerca de dois terços do consumo global de capacidade de IA.
O que isso significa? Cada redução de uma ordem de magnitude no preço de chamada aumenta, na prática, a quantidade de capacidade computacional necessária — nunca diminui. A “democratização” de grandes modelos, de certa forma, acelera a concentração na camada de capacidade — porque apenas players com grande capacidade podem sustentar operações de inferência com margens extremamente baixas.
Estamos diante de uma estrutura de lock-in: quem controla a capacidade física de inferência, controla a verdadeira infraestrutura da era da IA. Sob essa perspectiva, a descentralização da rede de capacidade computacional não é apenas uma questão de “custos 50% mais baixos”, mas uma alternativa estrutural antes que o lock-in se consolide completamente.
Participantes do LA Hacks — engenheiros e profissionais de produto de universidades de elite na Califórnia — logo enfrentarão uma decisão de engenharia: onde construir seus produtos de IA?
Seu produto de IA, em qual servidor de capacidade de inferência ele roda?
Quando essa plataforma ajustar sua política de preços ou acesso, você consegue migrar?
O tamanho da sua base de usuários, você está criando valor para si ou entregando “fichas” para a plataforma?
Essas questões já foram experimentadas na era Web2: quando o destino de uma aplicação fica profundamente ligado às regras de algoritmos ou distribuição da plataforma, “independência” se torna uma palavra que precisa ser redefinida a todo momento. Na era da IA, a dependência de capacidade computacional reforça essa lógica, e, por ter custos de troca mais altos, o efeito de lock-in só se intensifica.
Hackathons, como uma forma de expressão, têm uma ironia interna: em 36 horas, construir algo funcional com o mínimo de recursos — exatamente o que uma rede descentralizada de incentivos busca. Quando Daniil sobe ao palco na LA Hacks, não é só para falar do Gonka, mas para questionar esse grupo: o que vocês farão no futuro? Ajudar esse processo de centralização acelerar, ou criar novas possibilidades?
Gonka reposiciona o incentivo de prova de trabalho, alinhando-o ao inferência de IA, de modo que quase 100% da capacidade contribuída na rede corresponda a tarefas reais. Essa mecânica exige que as tarefas de inferência sejam verificáveis e reprodutíveis — com o mesmo peso do modelo, a mesma semente aleatória e entrada, qualquer nó pode reproduzir o resultado e verificar sua validade. Essa é a principal dificuldade técnica para transformar o protótipo acadêmico do Gonka em uma rede operacional.
Do ponto de vista econômico, essa mecânica tem o valor de que o token está naturalmente atrelado ao custo de capacidade física, e não ao sentimento de liquidez. Os mineradores que contribuem com capacidade recebem recompensas, os desenvolvedores pagam pelo uso, e o ciclo de incentivos não depende da boa vontade de intermediários.
Claro que a viabilidade técnica é apenas uma parte. A questão mais difícil é: em um cenário de crescimento acelerado da demanda, com grandes players investindo bilhões de dólares, uma rede de capacidade distribuída, organizada por comunidade, consegue competir em escala?
Os primeiros dados do Gonka oferecem uma referência: menos de um ano após o lançamento, a capacidade agregada da rede passou de 60 unidades H100 para mais de 10.000 — impulsionada por centenas de nós independentes, sem coordenação centralizada. Isso não prova que o problema de escala está resolvido, mas mostra que o mecanismo de incentivo está funcionando para impulsionar o crescimento inicial.
Historicamente, o controle de infraestrutura tende a se consolidar cedo — foi assim com ferrovias, internet e mobile. Sempre há quem consiga se inserir antes da padronização, e quem só percebe a perda de participação após a centralização.
Em que estágio está a infraestrutura de capacidade de IA? Pelos gastos previstos de 570,8 bilhões de dólares em 2026 pelos quatro maiores provedores de nuvem, a centralização já está acelerando; mas, na prática, há muitos recursos não integrados na oferta atual. Essa lacuna é o espaço onde uma rede descentralizada pode existir estruturalmente.
Daniil citou uma comparação: após o estouro da bolha da internet em 2000, o que restou não foi um caos, mas uma vasta rede de fibra óptica que sustentou duas décadas de economia digital. Depois que a febre de investimentos em infraestrutura de IA passar, as propostas de protocolos de capacidade e incentivos que sobreviverem serão a base do próximo ciclo. A questão é: quais protocolos terão uma lógica suficientemente sólida para resistir às pressões?
Não se trata de um problema de um projeto específico, mas de uma questão que toda a trilha descentralizada de IA precisa enfrentar: a governança consegue resistir ao risco de controle centralizado? Os incentivos continuam eficazes à medida que a escala aumenta? A descentralização da rede de capacidade, em termos de tecnologia, tokenomics e governança, é viável em todos esses níveis?
Epílogo
A redução de preços do DeepSeek reacende a narrativa da “democratização da IA”. Mas a democratização na inferência e na infraestrutura de capacidade são coisas distintas. A primeira está acontecendo; a segunda, depende de quanto tempo e esforço as pessoas estão dispostas a investir na resolução de um problema de engenharia, e não apenas na narrativa.