Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A NVIDIA entra na corrida para criar grandes modelos de IA
Se alguém perguntar quem são os maiores vencedores na era da IA, a resposta é quase indiscutível — Nvidia. Graças a cada uma das suas H100, que estão em falta e são disputadas como pão quente, ela é como quem vende pás durante uma corrida ao ouro: vendo as empresas de IA de todo o mundo a baterem cabeças contra a parede, ela mantém-se em silêncio e enriquece às escondidas, com a sua capitalização bolsista a disparar continuamente rumo ao infinito. Os mais recentes documentos financeiros indicam que a Nvidia vai investir acumuladamente 26 mil milhões de dólares nos próximos 5 anos, uma quantia gigantesca, para impulsionar com tudo o desenvolvimento de grandes modelos de IA open source. Isto significa que a Nvidia já não se contenta em vender pás — quer ir ela própria ao terreno para cavar ouro.
Investimento de grande fôlego
A 12 de março, de acordo com documentos financeiros apresentados pela Nvidia à Comissão de Valores Mobiliários dos EUA (SEC), a Nvidia vai investir acumuladamente 26 mil milhões de dólares (aproximadamente o equivalente a 1788 mil milhões de renminbi) nos próximos 5 anos, uma quantia gigantesca, para promover com tudo o desenvolvimento de grandes modelos de IA open source. A Nvidia também iniciou formalmente a sua transformação estratégica, passando de “fabricante de chips” para “laboratório de IA de topo full stack”.
De acordo com o plano, este investimento de 26 mil milhões de dólares da Nvidia não se destina apenas a concentrar-se no desenvolvimento de um único modelo. Pelo contrário, abrange toda a cadeia industrial de grandes modelos de IA open source. Os fundos serão aplicados gradualmente ao longo dos próximos 18 a 24 meses. Os primeiros grandes modelos open source desenvolvidos internamente deverão ser lançados, no mais rápido, no final de 2026 até ao início de 2027.
Para comparação, esta dimensão de investimento é muito superior aos 3 mil milhões de dólares gastos pela OpenAI ao treinar o GPT-4. E na rota técnica, a Nvidia escolheu um “caminho do meio” com “pesos abertos” (Open-weight). Este modelo situa-se entre o totalmente fechado da OpenAI e o totalmente open source da série Llama, da Meta.
Em concreto, a Nvidia vai disponibilizar publicamente os parâmetros-chave do modelo (os pesos), permitindo que empresas e programadores o descarreguem gratuitamente e o executem nos seus próprios equipamentos ou em nuvens privadas, além de o afinarem (fine-tuning), de modo a satisfazer as necessidades das empresas em matéria de privacidade de dados, personalização e controlo de custos. No entanto, os dados de treino e o código do modelo podem não ser totalmente abertos.
O fundador da organização sem fins lucrativos Laude Institute, dedicada a promover a abertura da IA, e cientista de computação, Andy Konwinski, classificou o investimento da Nvidia como um sinal marcadamente assinalável, de natureza “de marco”. “Eles estão no ponto de intersecção à frente entre muitos projetos de IA abertos e fechados”, disse Konwinski. “É uma declaração sem precedentes da sua crença na abertura.”
Além disso, as análises do setor indicam que a estratégia open source tem também um significado comercial mais duradouro para a Nvidia. Quando os modelos da Nvidia forem lançados, serão publicados os pesos e os detalhes técnicos, o que facilita que startups e investigadores modifiquem e inovem com base na sua base tecnológica. Isto ajuda a formar uma rede de programadores em torno do ecossistema de hardware da Nvidia, reforçando ainda mais a “pegajosidade” do mercado para os seus chips.
Ao nível da OpenAI
Desde novembro de 2023, quando lançou o seu primeiro modelo Nemotron, a Nvidia tem vindo a lançar sucessivamente modelos especializados em domínios verticais como robótica, modelação climática e dobragem de proteínas. O vice-presidente sênior de investigação em aprendizagem profunda aplicada da Nvidia, Bryan Catanzaro, também revelou que a Nvidia recentemente concluiu o pré-treino de um modelo com 550 mil milhões de parâmetros. No desenvolvimento do modelo central, a Nvidia vai focar-se no desenvolvimento de grandes modelos de vanguarda, multimodais e multi-domínios, cobrindo várias direções como linguagem, código, computação científica e agentes.
Recentemente, a Nvidia também lançou o Nemotron 3 Super, a nova geração de grandes modelos de linguagem open source, concebida especificamente para sistemas de múltiplos agentes a nível empresarial. A quantidade total de parâmetros do modelo atinge 128 mil milhões (com apenas 12 mil milhões ativados na inferência), com suporte nativo para uma janela de contexto ultra longa de 1 milhão de tokens. Diferente dos padrões de acesso via API mais comuns, desta vez a Nvidia disponibilizou os pesos do modelo, os conjuntos de dados de pré-treino/pós-treino e um plano de treino completo.
Com 128 mil milhões de parâmetros, a escala é mais ou menos equivalente ao maior modelo do OpenAI GPT-OSS. A Nvidia afirma que, no índice de pontuação composta do AI Index, o Nemotron 3 Super obteve 37 pontos, enquanto o GPT-OSS ficou apenas em 33.
Importa referir que a Nvidia reconhece, ao mesmo tempo, que as pontuações de alguns modelos chineses são mais elevadas do que este nível. Além disso, a Nvidia afirma que o Nemotron 3 Super participou num novo teste de referência chamado PinchBench, que avalia especificamente a capacidade do modelo de controlo do OpenClaw, tendo o Nemotron 3 Super ficado em primeiro lugar nesse teste.
Em termos técnicos, a Nvidia divulgou várias abordagens inovadoras utilizadas no treino deste modelo, incluindo arquiteturas e técnicas de treino para melhorar a capacidade de inferência do modelo, a capacidade de lidar com contextos longos e a capacidade de resposta com reforço de aprendizagem.
Catanzaro afirmou: “A Nvidia está a dar ao desenvolvimento de modelos open source uma atenção muito superior à de antes, e estamos a obter grandes progressos.”
No plano do ecossistema, a Nvidia já estabeleceu parcerias com fornecedores de serviços cloud e fabricantes de hardware de referência, como Google Cloud Vertex AI, a infraestrutura da Oracle Cloud, a Dell Technologies, a HPE, entre outros, e a integração com Amazon AWS Bedrock e Microsoft Azure está também em preparação. Empresas de agentes de desenvolvimento de software como CodeRabbit, Factory e Greptile, bem como instituições de ciências da vida como Edison Scientific e Lila Sciences, já anunciaram igualmente que irão integrar este modelo nos seus fluxos de trabalho de agentes.
Redefinir a rota
Durante muito tempo, a principal vantagem da Nvidia esteve concentrada na área de hardware de chips: a quota de mercado global de chips para IA ultrapassa 80%. No entanto, no que toca à esfera dos modelos de IA, o seu poder de voz é relativamente mais fraco; anteriormente, os padrões técnicos e os paradigmas de treino dos grandes modelos eram, em grande medida, definidos por fabricantes como OpenAI e Meta.
Desta vez, ao descer ao terreno e desenvolver internamente um topo de gama de modelos open source, o objetivo central da Nvidia é definir, a partir da base, a rota técnica dos modelos de IA, fazendo com que a sua arquitetura de hardware e a sua pilha de software se tornem o padrão de facto para toda a indústria de IA — puxando a procura por capacidade de computação através dos modelos open source. Se o Nemotron se tornar o modelo base mais comum de IA para agentes empresariais, a infraestrutura de GPUs necessária para executar o modelo em grande escala continuará a depender da Nvidia — ao mesmo tempo que avança a abertura ao nível dos modelos, a empresa consolida o bloqueio da procura ao nível do hardware.
Analistas financeiros preveem que, se a Nvidia conseguir consolidar a sua posição dominante no hardware e, em simultâneo, capturar com sucesso 10% de quota no mercado de modelos base, esta medida poderá, em três anos, gerar para a empresa receitas adicionais de até 500 mil milhões de dólares por ano. Bryan Catanzaro afirmou que impulsionar o desenvolvimento do ecossistema open source está totalmente alinhado com os interesses centrais da Nvidia; este enorme investimento não é um mero seguimento cego da tendência, mas sim uma escolha estratégica resultante de uma análise profunda e prolongada da indústria.
Na terça-feira, no horário local, o CEO da Nvidia, Huang Renxun, também publicou um raro artigo longo em blog sobre inteligência artificial. Trata-se do sétimo texto longo público que ele publica desde 2016. No artigo, Huang Renxun explica de forma sistemática a lógica subjacente da indústria de IA, e no texto define a “arquitetura em cinco camadas” da IA. Ele afirmou que, neste momento, a indústria de IA ainda se encontra na fase de desenvolvimento mais inicial; apesar de a indústria já ter investido milhares de milhões de dólares, o verdadeiro potencial da IA ainda não foi totalmente explorado, e no futuro serão ainda necessários investimentos contínuos de dezenas de milhares de milhões de dólares para aperfeiçoar a infraestrutura de base.
Huang Renxun indicou que a IA se tornou uma das forças mais poderosas a moldar o mundo atualmente. Não é apenas uma aplicação inteligente ou um modelo isolado; é, antes, uma infraestrutura essencial como a eletricidade e a internet. Funciona sobre hardware, energia e bases económicas reais, consegue absorver matérias-primas e convertê-las em inteligência escalável; no futuro, cada empresa utilizará IA e cada país construirá infraestruturas de IA.
Relativamente às preocupações com o emprego trazidas pelo desenvolvimento da IA, Huang Renxun considera que a IA não irá cortar postos de trabalho — pelo contrário, irá criar inúmeras novas oportunidades de emprego, sobretudo nas áreas da infraestrutura e das profissões técnicas especializadas. A mão de obra necessária para apoiar a construção da infraestrutura de IA é extremamente grande. As “fábricas de IA” necessitam de eletricistas, canalizadores, trabalhadores do setor do aço, técnicos de redes, instaladores e operadores, entre outros. Estes são empregos de elevada qualificação e com salários altos, e que neste momento estão em falta. A IA está a colmatar, a nível global, uma enorme lacuna de mão de obra para funções como motoristas de camiões, enfermeiros e contabilistas — e não a fabricar desemprego.