Em 21 de maio, o CEO da NVIDIA, Jensen Huang, disse que o lançamento de código aberto do DeepSeek R1 impulsionou a adoção generalizada da tecnologia de IA de inferência e acelerou a necessidade de computação. Modelos como o o3 da OpenAI, o DeepSeek R1 e o Grok 3 da xAI demonstram como a IA pode passar de modelos percetivos e generativos para modelos de inferência de pensamento de longo prazo que exigem um poder de computação significativamente melhorado. Esses modelos podem resolver problemas complexos, tomar decisões estratégicas e aplicar raciocínio lógico, mas cada tarefa requer 100 vezes mais computação do que a IA tradicional baseada em inferência. "A escala de pós-treinamento e personalização do modelo é enorme, e o esforço computacional pode ser ordens de magnitude maior do que antes do treinamento", disse Huang. Nossas necessidades de inferência estão acelerando, impulsionadas por tempos de teste expandidos e novos modelos de inferência."
O conteúdo serve apenas de referência e não constitui uma solicitação ou oferta. Não é prestado qualquer aconselhamento em matéria de investimento, fiscal ou jurídica. Consulte a Declaração de exoneração de responsabilidade para obter mais informações sobre os riscos.
CEO da Nvidia: DeepSeek impulsionou o crescimento explosivo da demanda por computação em IA
Em 21 de maio, o CEO da NVIDIA, Jensen Huang, disse que o lançamento de código aberto do DeepSeek R1 impulsionou a adoção generalizada da tecnologia de IA de inferência e acelerou a necessidade de computação. Modelos como o o3 da OpenAI, o DeepSeek R1 e o Grok 3 da xAI demonstram como a IA pode passar de modelos percetivos e generativos para modelos de inferência de pensamento de longo prazo que exigem um poder de computação significativamente melhorado. Esses modelos podem resolver problemas complexos, tomar decisões estratégicas e aplicar raciocínio lógico, mas cada tarefa requer 100 vezes mais computação do que a IA tradicional baseada em inferência. "A escala de pós-treinamento e personalização do modelo é enorme, e o esforço computacional pode ser ordens de magnitude maior do que antes do treinamento", disse Huang. Nossas necessidades de inferência estão acelerando, impulsionadas por tempos de teste expandidos e novos modelos de inferência."