Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Google Ironwood TPU: desempenho 10x + quatro parceiros a enfrentar a Nvidia
Com base em reportagens aprofundadas da Bloomberg e em anúncios oficiais da Google, a Google expandiu oficialmente o seu portefólio de chips de IA próprios no dia 22 de abril: o Ironwood, dedicado à inferência (7.ª geração de TPU), está agora em fornecimento total no Google Cloud, e em simultâneo foi lançada a colaboração de próxima geração com quatro parceiros — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, através de uma cadeia de fornecimento de chips personalizados, desafiar de forma positiva a posição dominante da Nvidia no mercado de capacidade de computação em IA.
Ironwood: 7.ª geração de TPU, primeira vez concebida especificamente para inferência
O Ironwood é o produto de 7.ª geração da série de TPU da Google e o primeiro chip dedicado à inferência no âmbito da estratégia de “separação treino/inferência”. As especificações divulgadas pela Google: desempenho de ponta por chip 10 vezes superior ao do TPU v5p, com 192GB de memória HBM3E, largura de banda de memória até 7,2 TB/s, um superpod pode ser expandido até 9.216 unidades de Ironwood arrefecidas a líquido e, no total, a capacidade de computação FP8 atinge 42,5 exaflops.
A Google diz oficialmente que o Ironwood já está “totalmente disponível para clientes do Google Cloud” e que, este ano, as remessas deverão atingir o patamar de “um milhão de unidades”. A Anthropic já se comprometeu a adotar até 1 milhão de Ironwood TPU, enquanto a Meta assinou um acordo multianual de “dezenas de milhares de milhões de dólares” para utilizar TPU através do Google Cloud.
Repartição entre os quatro parceiros: treino fica com a Broadcom, inferência fica com a MediaTek
A cadeia de fornecimento de chips de próxima geração da Google tem a seguinte divisão clara:
Parceiro Código Papel Característica Broadcom Sunfish Treino dedicado Dá continuidade à relação de colaboração existente com TPU, lidera nós de treino de grande escala MediaTek (联发科) Zebrafish Inferência dedicada Afirma ser 20–30% mais barato em custos do que a solução da Broadcom Marvell Em negociação Unidade de processamento de memória (MPU) + TPU de inferência adicional para otimizações de HBM e inference Intel Não divulgado Participação no desenho para reforçar a dispersão da cadeia de fornecimento
Trata-se da primeira vez, na indústria de IA, que se vê o modelo de “quatro parceiros em paralelo, divisão de trabalho explícita entre treino e inferência”. A Google, ao dispersar riscos de IP e ao negociar preços perante a concorrência, evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap estende-se até ao final de 2027, com o TPU v8, a ser produzido no processo de 2nm da TSMC.
Significado estratégico: o que a Google está a desafiar não é um único chip, é a cadeia de fornecimento
Nos últimos três anos, o mercado de chips de IA tem sido quase monopolizado pela Nvidia, com a ecossistema de software CUDA e a dupla muralha formada pelos chips H100/GB200. A estratégia do Ironwood da Google e dos quatro parceiros não tem como objetivo “ultrapassar um requisito específico” em termos isolados, mas sim replicar a lógica da Nvidia na indústria — “plataforma padronizada + compras por múltiplos clientes” — para que as TPU não sejam apenas para uso próprio da Google, mas uma opção de capacidade de computação comercial que pode ser partilhada por principais empresas de IA como Anthropic e Meta.
O significado do compromisso da Anthropic de 1 milhão de TPU é particularmente crítico: trata-se do maior compromisso de capacidade de computação de uma única empresa de IA fora da Nvidia. E complementa-se com os compromissos da Anthropic 4/20 e com a Amazon ao alcançar 5GW/100 mil milhões de dólares em AWS — de um lado, a ligação ao AWS Trainium; do outro, a ligação às TPU da Google. A Anthropic reduz a dependência da Nvidia com uma estratégia de “dois chips personalizados”. A Meta, por sua vez, é a primeira empresa a incluir publicamente as TPU nos seus próprios workloads de treino/inferência de IA, criando mais um sinal.
Reação do mercado e ligação com a indústria
A MediaTek já era vista, antes desta divulgação, como “beneficiária de chips personalizados da Google”, e a exposição do código Zebrafish é a primeira vez que a MediaTek é listada diretamente como parceira de conceção de chips de inferência da Google. Esta extensão segue a linha narrativa recente da “aliança não-Nvidia”: AMD × GlobalFoundries para fotónica em silício e Marvell × Google para MPU.
A Nvidia, no mesmo período, ainda tem suporte do GB200 e da plataforma Rubin de próxima geração, mas a combinação de capacidade do lado do cliente está a passar de “total Nvidia” para a operação em três vias “Nvidia + TPU + AWS Trainium”. Isto também significa que, para a capacidade da TSMC em 2nm, Google, Nvidia, Apple e Amazon estão todas em fila, elevando continuamente o poder negocial do produtor por contrato de foundry.
Este artigo “Google Ironwood TPU: 10 vezes o desempenho + quatro parceiros a enfrentar a Nvidia” apareceu pela primeira vez em 鏈新聞 ABMedia.