SambaNova Apresenta o Chip mais Rápido para IA Agente, Colabora com a Intel e Levanta Mais de $350M

Este é um comunicado de imprensa pago. Contacte diretamente o distribuidor do comunicado de imprensa para quaisquer questões.

A SambaNova apresenta o chip mais rápido para IA agentica, colabora com a Intel e angaria $350M+

Business Wire

Sex, 27 de fevereiro de 2026 às 3:24 AM GMT+9 8 min de leitura

Neste artigo:

INTC

-3.04%

9434.T

+0.05%

O chip SambaNova SN50 tem uma velocidade máxima até 5X superior à de chips concorrentes. Executa IA agentica com um custo 3X mais baixo do que as GPUs — reduzindo drasticamente os custos de inferência e maximizando as margens.

_O novo chip SN50 tem uma velocidade máxima até **5X** superior à dos chips concorrentes [1]_
_Executar IA agentica a um custo 3X mais baixo do que as GPUs — reduzindo custos de inferência e maximizando margens [2]_
_A SoftBank Corp. será o primeiro cliente a implementar o SN50 nos seus centros de dados de IA de próxima geração no Japão_
_A SambaNova e a Intel planeiam uma colaboração estratégica plurianual para entregar inferência de IA à escala cloud, desbloqueando uma oportunidade de mercado de vários milhares de milhões de dólares_
_$350 milhões em financiamento estratégico da Série E para expandir a capacidade de fabrico e cloud; novos investidores incluem Vista Equity Partners, Cambium Capital, First Data, Intel Capital,__ Battery Ventures, e contas aconselhadas pela T. Rowe Price Associates, Inc._

DUBAI, Emirados Árabes Unidos, 26 de fevereiro de 2026–(BUSINESS WIRE)–A SambaNova apresentou hoje o seu chip de IA SN50, que oferece uma velocidade máxima 5X superior à dos chips concorrentes. A empresa anunciou também uma colaboração planeada com a Intel para disponibilizar soluções de inferência de IA de alto desempenho e com baixo custo, bem como mais de $350M de investimento por parte de investidores novos e existentes.

Posicionado como o chip mais eficiente para IA agentica, o SN50 oferece às empresas um custo total de propriedade 3X mais baixo — uma base poderosa para escalar rapidamente a inferência e levar agentes de IA autónomos para produção plena. O SN50 será enviado aos clientes mais tarde este ano.

Para escalar e distribuir rapidamente o SN50, a SambaNova está a colaborar com a Intel e obteve $350 milhões em financiamento estratégico da Série E para expandir a capacidade de fabrico e de cloud.

" A IA já não é um concurso para construir o maior modelo", disse Rodrigo Liang, cofundador e CEO da SambaNova. “Com o SN50 e a nossa profunda colaboração com a Intel, a verdadeira corrida é perceber quem consegue ativar centros de dados inteiros com agentes de IA que respondem instantaneamente, nunca bloqueiam, e fazê-lo a um custo que transforma a IA de um experimento no motor mais lucrativo na cloud.”

“Os clientes estão a pedir mais opções e formas mais eficientes de escalar a IA”, disse Kevork Kechichian, EVP, Gestor Geral, Data Center Group, Intel. “Ao combinar a liderança da Intel em computação, networking e memória com os sistemas de IA full-stack da SambaNova e a sua plataforma cloud de inferência, estamos a disponibilizar uma opção convincente para organizações que procuram alternativas às GPUs para implementar IA avançada à escala.”

O SN50 entrega cinco vezes mais computação por acelerador e quatro vezes mais largura de banda de rede do que a geração anterior. Liga até 256 aceleradores através de uma interligação multi-terabits por segundo, reduzindo o tempo até ao primeiro token e suportando tamanhos de lote maiores. O resultado: As empresas podem implementar modelos de IA maiores e com maior contexto, com maior capacidade de processamento e resposta — mantendo o desempenho elevado e os custos e a latência sob controlo.

A história continua  

" A IA está a passar de uma história de software para uma história de infraestrutura", disse Landon Downs, cofundador e managing partner da Cambium Capital. “O SN50 foi concebido para os requisitos reais de latência e económicos que determinarão quem consegue implementar com sucesso IA agentica à escala.”

A notícia surge na sequência das reservas e receitas recorde da SambaNova à medida que fechou 2025, refletindo uma procura acelerada por sistemas de IA prontos para produção nos serviços financeiros, telecomunicações, energia e implementações soberanas em todo o mundo.

Construído para Produção Agentica

Construído na arquitetura Reconfigurable Data Unit (RDU) da SambaNova, o SN50 entrega:

**Experiências de IA Instantâneas** — A latência ultra-baixa oferece capacidade de resposta em tempo real para aplicações empresariais de próxima geração, como assistentes de voz.
**Escala e Concorrência Sem Igual** — Potencia milhares de sessões de IA simultâneas com desempenho consistente e elevado.
**Capacidade de Modelos Comprovadamente Avançada** — A arquitetura de memória em três níveis desbloqueia modelos com 10T+ parâmetros e comprimentos de contexto de 10M+ para raciocínio mais profundo e saídas mais ricas.
**Máxima Eficiência à Escala** — Maior utilização do hardware reduz o custo por token, impulsionando maior desempenho e ROI.
**Memória Mais Inteligente, Eficiência Mais Inteligente** — Memória residente multi-modelo e caching agentica otimizam a arquitetura em três níveis, reduzindo os custos de infraestrutura para implementações de IA à escala empresarial.

“O novo SambaNova SN50 RDU altera a economia dos tokens da inferência de IA à escala. Ao entregar tanto alto desempenho como alta capacidade de processamento com um chip que utiliza energia existente e é arrefecido por ar, a SambaNova está a mudar o jogo”, afirma Peter Rutten, Vice-Presidente de Investigação para Performance Intensive Computing na empresa de análise IDC.

A SoftBank implementa o SN50 nos seus Centros de Dados de IA no Japão

A SoftBank Corp. será o primeiro cliente a implementar o SN50 nos seus centros de dados de IA de próxima geração no Japão. A implementação irá fornecer serviços de inferência de baixa latência para clientes soberanos e empresariais em toda a Ásia-Pacífico, suportando tanto modelos de fronteira de código aberto como proprietários com requisitos agressivos de latência e capacidade de processamento.

“Com o SN50, estamos a construir uma infraestrutura de inferência de IA para o Japão que pode servir os nossos clientes e parceiros com a velocidade, resiliência e soberania que a SoftBank espera”, disse Hironobu Tamba, Vice-Presidente e Responsável pela Divisão de Estratégia de Plataforma de Dados da Technology Unit da SoftBank Corp. “Ao padronizar no SN50, ganhamos a capacidade de entregar serviços de IA de classe mundial nos nossos próprios termos — com o desempenho dos melhores clusters de GPU, mas com uma economia e um controlo muito melhores.”

A implementação do SN50 aprofunda a relação existente da SambaNova com a SoftBank Corp., que já aloja a SambaCloud para fornecer inferência ultra-rápida para programadores na região. Ao ancorar os seus clusters mais recentes no SN50, a SoftBank posiciona a SambaNova como a espinha dorsal de inferência para as suas iniciativas de IA soberana e futuros serviços agenticos em grande escala.

A SambaNova e a Intel planeiam colaboração plurianual

A SambaNova e a Intel iniciaram uma colaboração estratégica planeada por vários anos para fornecer soluções de inferência de IA de alto desempenho e com baixo custo para empresas nativas de IA, fornecedores de modelos, empresas e organizações governamentais em todo o mundo. A colaboração proporcionará aos clientes uma alternativa poderosa às soluções centradas em GPUs, oferecendo desempenho otimizado para modelos líderes de código aberto com capacidade de processamento previsível e custo total de propriedade.

Como parte da colaboração, a Intel planeia fazer um investimento estratégico na SambaNova para acelerar o lançamento de uma cloud de IA alimentada por Intel. A colaboração deverá abranger três áreas-chave:

**Expansão da Cloud de IA —** Escalar a cloud de IA verticalmente integrada da SambaNova, construída sobre infraestrutura baseada em Intel Xeon e otimizada para modelos de linguagem grande e multimodais. A plataforma irá fornecer serviços de IA com baixa latência e alta capacidade de processamento, suportados por arquiteturas de referência, blueprints de implementação e parcerias com integradores de sistemas e fornecedores de software.
**Infraestrutura de IA Integrada —** Combinando os sistemas da SambaNova com CPUs, aceleradores e tecnologias de networking da Intel para possibilitar uma inferência escalável, pronta para produção, para raciocínio, geração de código, aplicações multimodais e fluxos de trabalho agenticos.
**Execução Go-to-Market —** Co-vendas e co-marketing conjuntos através dos canais globais de enterprise, cloud e parceiros da Intel para acelerar a adoção em todo o ecossistema de IA.

Em conjunto, a SambaNova e a Intel pretendem moldar a próxima geração de centros de dados heterogéneos de IA — integrando processadores Intel Xeon, GPUs Intel, networking e armazenamento da Intel, e sistemas da SambaNova — para desbloquear uma oportunidade de mercado de inferência de vários milhares de milhões de dólares.

Angaria $350M+, liderado pela Vista e pela Cambium

A ronda da Série E sobre-subscrita foi liderada pela Vista Equity Partners e pela Cambium Capital, com forte participação da Intel Capital.

Os novos investidores a juntar-se à ronda incluem: Assam Ventures, Battery Ventures, First Data, Gulf Development Public Company Limited, Mayfield Capital, Saudi First Data, Seligman Ventures, e contas aconselhadas pela T. Rowe Price Associates, Inc. Os investidores existentes a participar incluem: A&E, 8Square, Atlantic Bridge, BlackRock, GV, Nepenthe, Nuri Capital e Redline Capital.

O Sr. Sharaf Al Hariri, Presidente da First Data, declarou que a SambaNova forma uma parte central da estratégia de investimento da First Data para levar tecnologias avançadas de IA ao Reino da Arábia Saudita e à região mais alargada do Médio Oriente. Sublinhou que a First Data está a investir nas plataformas da SambaNova para permitir capacidades de IA de elevado desempenho, baixa latência e prontas para soberania, beneficiando simultaneamente de requisitos de baixa potência e da capacidade de operar eficientemente em ambientes existentes de centros de dados arrefecidos por ar. Dentro desta estratégia, a SambaNova suporta inferência avançada e serviços de IA escaláveis, reforçando a capacidade da First Data de entregar infraestrutura e soluções de IA de classe mundial. Referiu ainda que este investimento reflete o compromisso mais amplo e de longo prazo da First Data em diversificar o seu portefólio tecnológico, construir capacidades de inovação resilientes e posicionar a empresa para se adaptar a tendências tecnológicas globais em evolução, ao mesmo tempo que entrega valor sustentável para a região.

À medida que os workloads agenticos se expandem, as empresas estão a descobrir que a infraestrutura otimizada para treino tem dificuldades em cumprir os requisitos de latência e custo da produção: “Estamos orgulhosos de estar a investir na SambaNova num momento tão crucial no crescimento da empresa”, disse Monti Saroya, Partner na Vista Capital. “O SN50 foi concebido para sistemas de IA agentica que orquestram múltiplos modelos e processam pedidos em quase tempo real de forma mais eficiente do que os sistemas tradicionais centrados em GPUs.”

Os recursos serão utilizados para expandir a produção do SN50, aumentar a escala da SambaCloud e aprofundar integrações de software empresariais.

Sobre a SambaNova

A SambaNova é uma líder em infraestruturas de IA de próxima geração, fornecendo uma plataforma full stack que potencia a inferência de IA mais rápida e mais eficiente para empresas, NeoClouds, laboratórios de IA e prestadores de serviços, e iniciativas de IA soberana em todo o mundo. Fundada em 2017 e sediada em San Jose, Calif., a SambaNova disponibiliza chips, sistemas e serviços de cloud que permitem aos clientes implementar modelos de ponta com desempenho superior, menor custo total de propriedade e rápido tempo para obter valor.

Para mais informações, visite sambanova.ai ou siga a SambaNova no X e no LinkedIn.

[1] SemiAnalysis InferenceX - Llama 3.3 70B max speed on Nvidia B200 at FP8 and 1K input/1k output - 184 tokens per second per user. Llama 3.3 70B max speed on SN50 at FP8 and 1K input/1k output - 895 tokens per second per user.

[2] SemiAnalysis InferenceX - Llama 3.3 70B throughput per chip on Nvidia B200 at FP8 and 1K input/1k output - across a range of configurations, total throughput per GPU versus total throughput per RDU moves from ~1X (at 33 tokens per second per user) to ~25X advantage for RDUs (at 184 tokens per second per user). 3X is derived as the average throughput advantage for SN50 across Llama 70B, GPT-OSS 120B and DeepSeek 671B, assuming a latency budget.

Ver a versão da fonte em businesswire.com:

Contactos

**Contacto para a Imprensa: **
Emad Abdo
Emad@memediapro.com
+971522038872

Condições e Política de Privacidade

Privacy Dashboard

Mais Informações

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar