A NVIDIA entra na corrida para criar grandes modelos de IA

robot
Geração de resumo em curso

Se alguém perguntar quem são os maiores vencedores na era da IA, a resposta é quase indiscutível — Nvidia. Graças a cada uma das suas H100, que estão em falta e são disputadas como pão quente, ela é como quem vende pás durante uma corrida ao ouro: vendo as empresas de IA de todo o mundo a baterem cabeças contra a parede, ela mantém-se em silêncio e enriquece às escondidas, com a sua capitalização bolsista a disparar continuamente rumo ao infinito. Os mais recentes documentos financeiros indicam que a Nvidia vai investir acumuladamente 26 mil milhões de dólares nos próximos 5 anos, uma quantia gigantesca, para impulsionar com tudo o desenvolvimento de grandes modelos de IA open source. Isto significa que a Nvidia já não se contenta em vender pás — quer ir ela própria ao terreno para cavar ouro.

Investimento de grande fôlego

A 12 de março, de acordo com documentos financeiros apresentados pela Nvidia à Comissão de Valores Mobiliários dos EUA (SEC), a Nvidia vai investir acumuladamente 26 mil milhões de dólares (aproximadamente o equivalente a 1788 mil milhões de renminbi) nos próximos 5 anos, uma quantia gigantesca, para promover com tudo o desenvolvimento de grandes modelos de IA open source. A Nvidia também iniciou formalmente a sua transformação estratégica, passando de “fabricante de chips” para “laboratório de IA de topo full stack”.

De acordo com o plano, este investimento de 26 mil milhões de dólares da Nvidia não se destina apenas a concentrar-se no desenvolvimento de um único modelo. Pelo contrário, abrange toda a cadeia industrial de grandes modelos de IA open source. Os fundos serão aplicados gradualmente ao longo dos próximos 18 a 24 meses. Os primeiros grandes modelos open source desenvolvidos internamente deverão ser lançados, no mais rápido, no final de 2026 até ao início de 2027.

Para comparação, esta dimensão de investimento é muito superior aos 3 mil milhões de dólares gastos pela OpenAI ao treinar o GPT-4. E na rota técnica, a Nvidia escolheu um “caminho do meio” com “pesos abertos” (Open-weight). Este modelo situa-se entre o totalmente fechado da OpenAI e o totalmente open source da série Llama, da Meta.

Em concreto, a Nvidia vai disponibilizar publicamente os parâmetros-chave do modelo (os pesos), permitindo que empresas e programadores o descarreguem gratuitamente e o executem nos seus próprios equipamentos ou em nuvens privadas, além de o afinarem (fine-tuning), de modo a satisfazer as necessidades das empresas em matéria de privacidade de dados, personalização e controlo de custos. No entanto, os dados de treino e o código do modelo podem não ser totalmente abertos.

O fundador da organização sem fins lucrativos Laude Institute, dedicada a promover a abertura da IA, e cientista de computação, Andy Konwinski, classificou o investimento da Nvidia como um sinal marcadamente assinalável, de natureza “de marco”. “Eles estão no ponto de intersecção à frente entre muitos projetos de IA abertos e fechados”, disse Konwinski. “É uma declaração sem precedentes da sua crença na abertura.”

Além disso, as análises do setor indicam que a estratégia open source tem também um significado comercial mais duradouro para a Nvidia. Quando os modelos da Nvidia forem lançados, serão publicados os pesos e os detalhes técnicos, o que facilita que startups e investigadores modifiquem e inovem com base na sua base tecnológica. Isto ajuda a formar uma rede de programadores em torno do ecossistema de hardware da Nvidia, reforçando ainda mais a “pegajosidade” do mercado para os seus chips.

Ao nível da OpenAI

Desde novembro de 2023, quando lançou o seu primeiro modelo Nemotron, a Nvidia tem vindo a lançar sucessivamente modelos especializados em domínios verticais como robótica, modelação climática e dobragem de proteínas. O vice-presidente sênior de investigação em aprendizagem profunda aplicada da Nvidia, Bryan Catanzaro, também revelou que a Nvidia recentemente concluiu o pré-treino de um modelo com 550 mil milhões de parâmetros. No desenvolvimento do modelo central, a Nvidia vai focar-se no desenvolvimento de grandes modelos de vanguarda, multimodais e multi-domínios, cobrindo várias direções como linguagem, código, computação científica e agentes.

Recentemente, a Nvidia também lançou o Nemotron 3 Super, a nova geração de grandes modelos de linguagem open source, concebida especificamente para sistemas de múltiplos agentes a nível empresarial. A quantidade total de parâmetros do modelo atinge 128 mil milhões (com apenas 12 mil milhões ativados na inferência), com suporte nativo para uma janela de contexto ultra longa de 1 milhão de tokens. Diferente dos padrões de acesso via API mais comuns, desta vez a Nvidia disponibilizou os pesos do modelo, os conjuntos de dados de pré-treino/pós-treino e um plano de treino completo.

Com 128 mil milhões de parâmetros, a escala é mais ou menos equivalente ao maior modelo do OpenAI GPT-OSS. A Nvidia afirma que, no índice de pontuação composta do AI Index, o Nemotron 3 Super obteve 37 pontos, enquanto o GPT-OSS ficou apenas em 33.

Importa referir que a Nvidia reconhece, ao mesmo tempo, que as pontuações de alguns modelos chineses são mais elevadas do que este nível. Além disso, a Nvidia afirma que o Nemotron 3 Super participou num novo teste de referência chamado PinchBench, que avalia especificamente a capacidade do modelo de controlo do OpenClaw, tendo o Nemotron 3 Super ficado em primeiro lugar nesse teste.

Em termos técnicos, a Nvidia divulgou várias abordagens inovadoras utilizadas no treino deste modelo, incluindo arquiteturas e técnicas de treino para melhorar a capacidade de inferência do modelo, a capacidade de lidar com contextos longos e a capacidade de resposta com reforço de aprendizagem.

Catanzaro afirmou: “A Nvidia está a dar ao desenvolvimento de modelos open source uma atenção muito superior à de antes, e estamos a obter grandes progressos.”

No plano do ecossistema, a Nvidia já estabeleceu parcerias com fornecedores de serviços cloud e fabricantes de hardware de referência, como Google Cloud Vertex AI, a infraestrutura da Oracle Cloud, a Dell Technologies, a HPE, entre outros, e a integração com Amazon AWS Bedrock e Microsoft Azure está também em preparação. Empresas de agentes de desenvolvimento de software como CodeRabbit, Factory e Greptile, bem como instituições de ciências da vida como Edison Scientific e Lila Sciences, já anunciaram igualmente que irão integrar este modelo nos seus fluxos de trabalho de agentes.

Redefinir a rota

Durante muito tempo, a principal vantagem da Nvidia esteve concentrada na área de hardware de chips: a quota de mercado global de chips para IA ultrapassa 80%. No entanto, no que toca à esfera dos modelos de IA, o seu poder de voz é relativamente mais fraco; anteriormente, os padrões técnicos e os paradigmas de treino dos grandes modelos eram, em grande medida, definidos por fabricantes como OpenAI e Meta.

Desta vez, ao descer ao terreno e desenvolver internamente um topo de gama de modelos open source, o objetivo central da Nvidia é definir, a partir da base, a rota técnica dos modelos de IA, fazendo com que a sua arquitetura de hardware e a sua pilha de software se tornem o padrão de facto para toda a indústria de IA — puxando a procura por capacidade de computação através dos modelos open source. Se o Nemotron se tornar o modelo base mais comum de IA para agentes empresariais, a infraestrutura de GPUs necessária para executar o modelo em grande escala continuará a depender da Nvidia — ao mesmo tempo que avança a abertura ao nível dos modelos, a empresa consolida o bloqueio da procura ao nível do hardware.

Analistas financeiros preveem que, se a Nvidia conseguir consolidar a sua posição dominante no hardware e, em simultâneo, capturar com sucesso 10% de quota no mercado de modelos base, esta medida poderá, em três anos, gerar para a empresa receitas adicionais de até 500 mil milhões de dólares por ano. Bryan Catanzaro afirmou que impulsionar o desenvolvimento do ecossistema open source está totalmente alinhado com os interesses centrais da Nvidia; este enorme investimento não é um mero seguimento cego da tendência, mas sim uma escolha estratégica resultante de uma análise profunda e prolongada da indústria.

Na terça-feira, no horário local, o CEO da Nvidia, Huang Renxun, também publicou um raro artigo longo em blog sobre inteligência artificial. Trata-se do sétimo texto longo público que ele publica desde 2016. No artigo, Huang Renxun explica de forma sistemática a lógica subjacente da indústria de IA, e no texto define a “arquitetura em cinco camadas” da IA. Ele afirmou que, neste momento, a indústria de IA ainda se encontra na fase de desenvolvimento mais inicial; apesar de a indústria já ter investido milhares de milhões de dólares, o verdadeiro potencial da IA ainda não foi totalmente explorado, e no futuro serão ainda necessários investimentos contínuos de dezenas de milhares de milhões de dólares para aperfeiçoar a infraestrutura de base.

Huang Renxun indicou que a IA se tornou uma das forças mais poderosas a moldar o mundo atualmente. Não é apenas uma aplicação inteligente ou um modelo isolado; é, antes, uma infraestrutura essencial como a eletricidade e a internet. Funciona sobre hardware, energia e bases económicas reais, consegue absorver matérias-primas e convertê-las em inteligência escalável; no futuro, cada empresa utilizará IA e cada país construirá infraestruturas de IA.

Relativamente às preocupações com o emprego trazidas pelo desenvolvimento da IA, Huang Renxun considera que a IA não irá cortar postos de trabalho — pelo contrário, irá criar inúmeras novas oportunidades de emprego, sobretudo nas áreas da infraestrutura e das profissões técnicas especializadas. A mão de obra necessária para apoiar a construção da infraestrutura de IA é extremamente grande. As “fábricas de IA” necessitam de eletricistas, canalizadores, trabalhadores do setor do aço, técnicos de redes, instaladores e operadores, entre outros. Estes são empregos de elevada qualificação e com salários altos, e que neste momento estão em falta. A IA está a colmatar, a nível global, uma enorme lacuna de mão de obra para funções como motoristas de camiões, enfermeiros e contabilistas — e não a fabricar desemprego.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar