Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
De 8% a 30%! Os gastos com memória dispararam
É evidente que isto é impulsionado pela procura de IA.
A SemiAnalysis prevê que, até 2026, a despesa com memória representará cerca de 30% do total das despesas de capital dos mega data centers, acima dos cerca de 8% em 2023 e 2024. A empresa estima que esta percentagem voltará a subir em 2027, o que significa que, em apenas quatro anos, à medida que os preços do DRAM dispararem para níveis dificilmente imagináveis e a oferta de HBM continuar gravemente insuficiente, a quota da despesa com memória aumentará quase quatro vezes.
A SemiAnalysis prevê que os preços do DRAM em 2026 duplicarão mais do que o dobro e que, em 2027, ainda haverá um crescimento de dois dígitos no preço médio de venda. Os preços dos contratos de LPDDR5 já subiram mais de três vezes desde o primeiro trimestre de 2025; a empresa estima que, neste trimestre, os preços no mercado à vista poderão exceder 10 USD/GB.
De acordo com o inquérito da SemiAnalysis, a memória HBM em empilhamento vertical — que é fundamental para aceleradores de IA — continuará a enfrentar escassez de oferta em 2027, enquanto a memória já representa uma grande parte da despesa adicional prevista para mega data centers este ano, cerca de 250 mil milhões de dólares.
Este facto já se reflectiu na fixação de preços dos servidores de IA. A SemiAnalysis aponta que, devido ao forte impacto do aumento dos custos de memória, o preço dos servidores B200 deverá subir até ao final do ano em valores que podem atingir 20%. Isto está em linha com a tendência do sector como um todo: os fabricantes reconheceram, nas suas recentes conferências de resultados, um forte aumento dos custos dos componentes. Jeff Clarke, diretor de operações da Dell, descreveu, na conferência de resultados do terceiro trimestre do ano fiscal de 2025, em Novembro passado, a rapidez com que os custos aumentaram como “sem precedentes”.
A Counterpoint Research tinha, entretanto, previsto separadamente que, até ao final de 2026, o preço dos módulos DDR5 de 64GB RDIMM poderá ser o dobro do verificado no início de 2025. Os servidores de IA construídos com base na plataforma LPDDR da Nvidia apresentam o maior aumento de preço, já que exigem quantidades enormes de memória por sistema.
A SemiAnalysis indica um fenómeno interessante: a Nvidia obtém dos fornecedores uma chamada tabela de preços de “VVP” (Very Very Preferred, preços de extrema preferência) para DRAM, “muito abaixo dos preços pagos pelos mega data centers e pelo mercado no seu conjunto”. A SemiAnalysis considera que isto comprime os custos dos servidores da própria Nvidia e reduz o nível de referência da fixação de preços no mercado em geral, mascarando os graves problemas de escassez de oferta que outros utilizadores enfrentam na prática.
O caso da AMD é precisamente o oposto: os SKUs dos seus aceleradores de IA têm tipicamente um preço unitário mais alto, pelo que não conseguem beneficiar das mesmas vantagens de preços junto dos fornecedores. As vendas de aceleradores de IA da AMD estão muito abaixo das da Nvidia, o que faz com que a AMD “esteja mais exposta ao aumento dos custos de memória quando o volume dos aceleradores de IA é muito menor do que o da Nvidia”. Noutras palavras, a escala de compras da Nvidia em HBM e em DRAM tradicional confere-lhe uma vantagem que os compradores de pequenas quantidades não conseguem alcançar.
A conclusão da SemiAnalysis é que, embora os principais operadores de cloud tenham já reflectido parcialmente na sua orientação de despesa de capital para 2026 o aumento dos preços da memória, as expectativas de Wall Street ainda não reflectem a reprecificação para 2027. A Samsung, a SK Hynix e a Micron já desviaram a capacidade para HBM e para DRAM empresarial de maior margem, o que levou à limitação da oferta de DDR5 e de LPDDR5 tradicionais. Além disso, a fábrica de HBM de Hiroshima da Micron, em que a empresa investiu 9,6 mil milhões de dólares, bem como os projectos de expansão da SK Hynix situados em Yichuan e Cheongju, só deverão conseguir uma produção substancial o mais cedo em 2027 ou 2028.
Fonte do artigo: Observador da Indústria de Semicondutores
Aviso de riscos e termos de isenção de responsabilidade