Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
AMD(AMD.US)Rumo à era da infraestrutura de IA de nível rack! Parceria forte com Tianhong Technology(CLS.US) para criar o cluster de computação Helios
A AMD (AMD.US) anunciou em grande detalhe que vai estabelecer uma colaboração profunda com a Tianhong Technology (CLS.US), lançando a nova plataforma de infraestrutura de computação de IA em nível de rack Helios da AMD, para competir no mercado global de data centers de IA. Para a AMD, que está a tentar ir corroendo continuamente, na área de clusters de computação central de IA com dimensão de vários biliões de dólares, a quota detida pela Nvidia (NVDA.US) até 90%, a Helios é essencial para as perspectivas de geração de receitas e de lucros da AMD. À medida que a empresa vai deslocando progressivamente o foco da concorrência para sistemas de nível de gabinete completo semelhantes aos da Nvidia NVL72, o cluster de computação de IA Helios, a ser lançado em grande escala até ao final de 2026, é, em essência, um confronto direto com a “infraestrutura de IA em nível de rack” da Nvidia.
As duas empresas referiram, numa declaração conjunta, que, no momento do lançamento desta plataforma de computação de IA, a Tianhong Technology (ou seja, a Celestica) ficará responsável pelo desenvolvimento, desenho e fabrico do componente de expansão vertical em larga escala de switches de rede de elevado desempenho na arquitetura do cluster de computação de IA em nível de rack Helios da AMD.
A AMD Helios é uma plataforma completa de infraestrutura de IA em nível de rack, de elevado desempenho e baseada em padrões abertos, concebida especificamente para tarefas de treino e inferência de IA em escala muito grande em data centers de IA. A arquitetura de IA em nível de rack é atualmente uma das formas de computação em cluster mais populares: neste modelo de computação, é o próprio rack — e não um único servidor com CPU/GPU — que serve como unidade base de computação para cargas de trabalho de IA em escala massiva. Integra capacidades de computação centrais como GPUs de IA/ASICs de IA, arquiteturas de rede de elevado desempenho e unidades de arrefecimento líquido (liquid cooling) num único sistema de infraestrutura de computação de IA, permitindo um treino eficiente de grandes modelos de linguagem (LLM) ou a execução de cargas de trabalho de IA baseadas em grandes modelos em enorme escala.
As duas empresas acrescentaram ainda que estes switches de expansão vertical vão utilizar chips de rede com uma arquitetura de última geração, de modo a alcançar uma rede de interligação de alta velocidade entre si para a próxima geração de GPUs de IA AMD Instinct MI450, proporcionando assim capacidades de computação de ponta, com otimizações inovadoras para clusters de infraestrutura de computação de IA em larga escala.
“A solução de IA em nível de rack Helios representa um novo plano para a infraestrutura de computação de IA, permitindo que os clientes apliquem em grande escala métricas integradas de desempenho, eficiência e flexibilidade necessárias para implementar cargas de trabalho de IA verdadeiramente enormes da próxima geração.” Forrest Norrod, vice-presidente executivo e gerente geral do negócio de soluções para data centers da AMD, afirmou na declaração.
As duas empresas indicaram que estão a colaborar para apoiar a implementação, num único clique e com elevada eficiência, da Helios em plataformas de computação em nuvem, em organizações empresariais e em ambientes de grande investigação científica. Graças às mais recentes atualizações do esforço conjunto para aumentar gradualmente a capacidade produtiva da Helios, na segunda-feira, no fecho das ações nos mercados dos EUA, a cotação da Celestica subiu cerca de 3%, enquanto a da AMD chegou a subir mais de 3%, acabando por fechar com uma subida de 1,7%.
De acordo com o que se sabe, a infraestrutura de computação de IA em nível de rack da AMD Helios deverá começar a ser entregue em grande quantidade no final de 2026 a grandes clientes de computação em nuvem como a Microsoft e a Amazon.
Unidos para combater em conjunto a “linha de Blackwell da Nvidia”
No momento em que a AMD e a Celestica se aliam para acelerar a colocação no mercado da plataforma de IA em nível de rack Helios, coincide também com a AMD ter-se associado a vários líderes tecnológicos para se opor às soluções de infraestrutura de computação de IA verticalmente integradas dominadas pela Nvidia. Antes disso, a AMD tinha anunciado uma colaboração com a H e a Tecnologia (慧与科技) e com a Broadcom, com o objetivo de fornecer em grande escala infraestrutura de computação de IA aberta e em nível de rack (rack-scale) para clusters de computação de alto desempenho e para data centers de IA de grande dimensão, procurando simultaneamente acelerar os avanços da investigação global de “IA soberana” (Sovereign AI).
A H e a Tecnologia (慧与科技) será um dos primeiros fornecedores de sistemas a adotar a arquitetura de cluster de computação de IA em nível de rack “Helios” da AMD. Além disso, a AMD e a H e a Tecnologia vão integrar um switch de expansão de alto desempenho personalizado para dentro do rack da HPE Juniper Networking, com base numa colaboração aprofundada com líderes de infraestruturas de redes e de ASIC — a Broadcom. Este grande sistema de computação de IA em escala pretende simplificar a implementação de clusters de infraestrutura de computação de IA ainda maiores, e oferecer uma solução de cluster de computação de IA em nível de rack da AMD com melhor custo-benefício e eficiência energética do que a linha de Blackwell da Nvidia.
A Helios, em essência, é a infraestrutura de IA em nível de rack da AMD que visa competir diretamente com a linha da Nvidia Blackwell NVL72/GB200 NVL72. Ambas tratam as 72 GPUs + CPUs + interligações de alta velocidade + arrefecimento líquido + engenharia de sistemas em nível de rack como unidades base para cargas de trabalho de IA, e não voltam a tratar um único servidor como produto central. A AMD define oficialmente a Helios como uma arquitetura de rack aberta baseada em OCP Open Rack Wide, orientada para treino e inferência em grande escala; já a Nvidia define o GB200 NVL72 como uma plataforma em nível de rack com arrefecimento líquido composta por 36 CPUs Grace + 72 GPUs Blackwell. Dito de outra forma, a Helios não é “apenas mais um lote de GPUs MI450”, mas sim a primeira vez que a AMD coloca verdadeiramente um sistema completo de gabinete para se confrontar diretamente com a plataforma NVL72 da Nvidia.
Comparativamente com as séries anteriores de produtos de GPUs de IA da AMD, a Helios apresenta um salto de desempenho muito significativo. Os benchmarks oficiais da AMD são claros: a Helios pode atingir um aumento de desempenho até 36x em relação à plataforma de computação de IA da geração anterior. Isto também indica que a abordagem da AMD para infraestrutura de computação de IA passou de “vender placas de GPU com desempenho mais forte” para “vender uma fábrica de IA completa de um gabinete”, ou seja, empacotar em conjunto GPU, CPU, NIC, arrefecimento líquido, topologia de rede e ROCm para vender como uma solução completa de computação de IA.
O principal ponto de venda da Helios é a memória e a interligação aberta. De acordo com o posicionamento oficial da AMD, a Helios de 72 GPUs pode fornecer até 2,9exaFLOPS FP4, 1,4 exaFLOPS FP8, 31TB de HBM4, 1,4PB/s de largura de banda agregada de memória e 260TB/s de largura de banda de interligação scale-up. Em comparação com a Nvidia GB200 NVL72, a Helios é claramente mais agressiva em capacidade de memória, largura de banda de scale-up original e design de rack aberto; para sistemas de treino/inferência sensíveis a contextos longos, a modelos com muitos parâmetros e a largura de banda, torna-se ainda mais atraente. A AMD chega mesmo a afirmar publicamente que a capacidade de memória da Helios é 50% superior à da próxima plataforma de computação de IA da Nvidia — o sistema Vera Rubin.
Por que razão a AMD escolheu a Tianhong Technology?
A razão pela qual a AMD precisa de se associar à Tianhong Technology (Celestica) é muito concreta: o gargalo dos sistemas de IA em nível de rack já não está apenas nas GPUs, mas sim nos switches de scale-up de alta velocidade, na engenharia integral de arrefecimento líquido do sistema inteiro, nas taxas de rendimento de fabrico, na capacidade de entrega e na resiliência da cadeia de fornecimento.
Num comunicado, a AMD escreveu de forma clara que, na cooperação, a Celestica é responsável pelo desenvolvimento, desenho e fabrico das scale-up networking switches da Helios. Estes switches são baseados em UALoE e determinam diretamente se o cluster de MI450 consegue funcionar de forma estável em grandes clusters de IA. O valor da Celestica não reside em “ter feito por encomenda um componente comum”, mas sim em ajudar a AMD a colmatar a etapa mais difícil no percurso entre uma empresa de chips e uma empresa de sistemas: transformar de facto uma arquitetura aberta de clusters de computação em realidade, torná-la um produto e entregá-la de acordo com as exigências dos hyperscalers (gigantes da computação em nuvem de grande escala). Em essência, isto segue a mesma lógica de indústria da Nvidia nos últimos anos, ao intensificar a coordenação extrema de sistemas completos de gabinete, redes de alto desempenho e software de operação e manutenção.
A Celestica é um fornecedor de serviços de fabrico eletrónico (EMS/ODM) e de soluções de infraestrutura sediado no Canadá. A empresa não se dedica apenas à montagem tradicional de hardware; também desempenha um papel fundamental no desenho, fabrico e integração de produtos relacionados com infraestruturas de data centers de IA (como switches de rede, servidores, soluções em nível de rack e componentes de rede de elevada largura de banda). Com a expansão em grande escala dos data centers de IA por parte de prestadores de serviços em nuvem e grandes empresas de tecnologia (como Google e, Meta, Amazon, etc.), a procura por ligações de rede de alta velocidade, por hardware personalizado e por soluções integradas em nível de rack aumentou de forma acentuada. A Celestica é precisamente um fornecedor central desses grandes data centers, fornecendo switches de rede de alto desempenho, servidores, módulos de hardware relacionados com ASIC/TPU e serviços integrados. A cotação das ações da empresa em 2025 registou uma subida de 220% ao longo do ano.