Hoje, o evento mais importante é a conferência GTC da Nvidia, praticamente uma história da humanidade em versão IA.

robot
Geração de resumo em curso

Hoje, a coisa mais importante é o evento GTC da Nvidia — é praticamente uma versão de IA da História da Humanidade.

O Huang Jen-hsün ainda nem subiu ao palco, mas a informação vazada antecipadamente já daria para escrever um livro.

A Liliu organizou três grandes destaques. Vamos lá, amigos gordos, comigo.

1)O custo da capacidade de computação em IA fica a metade, diretamente

A geração anterior, Blackwell, já era muito forte, certo?
Em breve vai ser anunciada a produção em massa do novo chip de geração Vera Rubin.

O que torna a Vera Rubin tão forte? Em termos simples, são só duas palavras: mais barata.

Para executar o mesmo modelo de IA,
o número de chips desce para um quarto e o custo de computação da inferência reduz-se em 90%.
Reduzir em 90%, amigos.
A AWS, a Microsoft e a Google, os três grandes fornecedores de cloud, entram diretamente na primeira leva.

2)A Groq, comprada no ano passado por 200 mil milhões de dólares, hoje entrega o trabalho de casa

Antes, o Huang Jen-hsün disse numa conferência de resultados que a Groq seria integrada no ecossistema da Nvidia como uma arquitetura extensível — como na altura em que compraram a Mellanox para completar as capacidades de rede.

A LPU da Groq e a GPU da Nvidia ficam no mesmo centro de dados: a GPU compreende o problema, a LPU fica encarregue de devolver a resposta rapidamente.

Com divisão de tarefas e cooperação entre os dois tipos de chips, a latência em cenários de Agent cai diretamente para baixo.

Os agentes de IA fazem o trabalho por pessoas; uma tarefa pode envolver dezenas de rondas de ajuste de modelo, e em cada ronda está a queimar capacidade de computação de inferência — e o utilizador fica ali à espera. Se for mais lento, a experiência desfaz-se.

A inferência tem dois passos: primeiro compreende a tua pergunta; depois, expõe a resposta palavra por palavra.

A GPU é forte no primeiro passo, mas no ritmo e na estabilidade de “emitir letras” no segundo passo, a LPU da Groq é melhor.

200 mil milhões é caro?

Pensa bem: no futuro, cada empresa vai fazer correr centenas de Agents, e cada Agent vai ajustar o modelo milhares de vezes por dia.

3)A versão da Nvidia do OpenClaw chega, chama-se NemoClaw

É um conjunto de plataforma open source; as empresas instalam e conseguem implementar “empregados” de IA para substituir humanos a executar fluxos de trabalho, tratar dados e gerir projetos.
Dizem que já está em negociações com a Salesforce e a Adobe.

O que é interessante é que o NemoClaw não exige que uses os chips da Nvidia.
Vê bem esta lógica, pois.
Vender chips dá apenas para ganhar a camada do hardware; só ao definir regras é que se ganha dinheiro na cadeia inteira. O Huang Jen-hsün calculou esta conta com muita clareza.

4)O Huang Jen-hsün diz que vai mostrar um “chip que o mundo nunca viu”

Muito provavelmente, será a primeira aparição da arquitetura Feynman da geração seguinte, com produção em massa em 2028, usando o processo de 1,6 nm mais avançado da TSMC.

Além disso, há mais um material menos conhecido que acho bastante interessante.

A Nvidia entrou no mercado de processadores para portáteis — dois modelos, com foco em jogos.
Os vendedores de placas gráficas vão ter de vir disputar as refeições do CPU.

Acho que, no futuro, o Huang Jen-hsün vai tornar-se um grande nome da era.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar