Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
【AI+NVDA】Relata-se que a NVIDIA lançará chip de inferência de IA na conferência GTC Qual é a diferença com os chips Blackwell e Rubin?
Nvidia (EUA: NVDA, Nvidia) está prestes a realizar a sua conferência anual GTC, e fontes da imprensa indicam que o CEO Jensen Huang espera lançar na GTC um chip focado em “inferência”, destinado a executar modelos em vez de treiná-los.
De acordo com as notícias, este será o primeiro produto lançado após a Nvidia ter, em dezembro do ano passado, firmado um acordo de licença tecnológica não exclusiva avaliado em 20 mil milhões de dólares com a startup de chips de IA Groq, cujo fundador e equipa principal se juntaram à Nvidia.
A Groq é conhecida pelo desenvolvimento de unidades de processamento de linguagem (Language Processing Units, LPU), que respondem rapidamente a consultas complexas de IA. Três meses após a assinatura do acordo, a Nvidia planeia lançar uma LPU baseada na arquitetura da Groq, que trabalhará em conjunto com a sua próxima GPU flagship Vera Rubin, para fortalecer a sua posição contra concorrentes e ampliar a sua linha de produtos para novas aplicações de IA.
Segundo fontes, nos últimos três anos, o enorme valor de mercado da Nvidia deve-se principalmente ao facto de as suas GPUs terem se tornado pilares na indústria de IA generativa, usadas para treinar modelos como o ChatGPT da OpenAI. Huang acredita que um único sistema pode ser usado tanto para treinar novos modelos de IA quanto para executar chatbots e ferramentas de codificação baseadas nesses modelos. Grandes empresas de tecnologia já investiram dezenas de bilhões de dólares na implementação desses sistemas, ao mesmo tempo que desenvolvem seus próprios chips de IA dedicados. Além disso, com a crescente complexidade das ferramentas de IA, como agentes inteligentes, Huang pode ser forçado a abandonar a ideia de que “um GPU pode lidar com qualquer carga de trabalho”.
O novo chip de inferência é baseado em SRAM, não em memória HBM
Por outro lado, com os preços da memória HBM elevados e a oferta cada vez mais escassa, fornecedores como SK Hynix e Micron podem não conseguir atender à demanda de IA. Os sistemas flagship da Nvidia, como o Blackwell e o Rubin, dependem de memórias de alta largura de banda para processar os grandes volumes de dados utilizados pelos modelos de IA.
Fontes indicam que este chip semelhante ao da Groq usará memória de acesso aleatório estático (SRAM), em vez da memória dinâmica de acesso aleatório (DRAM) usada na HBM. A SRAM é mais fácil de obter e mais adequada para acelerar tarefas de “inferência” de IA.
A Nvidia não comentou as informações acima.