SambaNova presenta el chip más rápido para IA agentica, colabora con Intel y recauda más de 350 millones de dólares

Este es un comunicado de prensa de pago. Póngase en contacto directamente con el distribuidor del comunicado de prensa para cualquier consulta.

SambaNova presenta el chip más rápido para IA agentic, colabora con Intel y recauda $350M+

Business Wire

Vie, 27 de febrero de 2026 a las 3:24 AM GMT+9 8 min de lectura

En este artículo:

INTC

-3.04%

9434.T

+0.05%

El chip SambaNova SN50 presume una velocidad máxima de 5X más rápida que los chips competitivos. Ejecuta IA agentic con un costo 3X menor que los GPU — reduciendo los costos de inferencia y maximizando los márgenes.

_El nuevo chip SN50 presume una **velocidad máxima 5X más rápida **que los chips competitivos [1]_
_Ejecuta IA agentic con un costo 3X menor que los GPU — reduciendo los costos de inferencia y maximizando los márgenes [2]_
_SoftBank Corp. será el primer cliente en implementar SN50 en sus centros de datos de IA de próxima generación en Japón_
_SambaNova e Intel planean una colaboración estratégica multi-año para ofrecer inferencia de IA a escala de nube y desbloquear una oportunidad de mercado de varios miles de millones de dólares_
_$350 millones en financiamiento estratégico de la Serie E para expandir la fabricación y la capacidad en la nube; nuevos inversionistas incluyen Vista Equity Partners, Cambium Capital, First Data, Intel Capital,__ Battery Ventures y cuentas asesoradas por T. Rowe Price Associates, Inc._

DUBAI, Emiratos Árabes Unidos, 26 de febrero de 2026–(BUSINESS WIRE)–SambaNova presentó hoy su chip de IA SN50, que presume una velocidad máxima 5X más rápida que los chips competitivos. La compañía también anunció una colaboración planificada con Intel para ofrecer soluciones de inferencia de IA de alto rendimiento y eficientes en costos, y más de $350M en inversión por parte de inversionistas nuevos y existentes.

Posicionado como el chip más eficiente para IA agentic, el chip SN50 ofrece a las empresas un costo total de propiedad 3X más bajo — una base poderosa para escalar rápidamente la inferencia y llevar agentes de IA autónomos a producción completa. El SN50 comenzará a enviarse a los clientes más adelante este año.

Para escalar y distribuir rápidamente SN50, SambaNova colabora con Intel y obtuvo $350 millones en financiamiento estratégico de la Serie E para expandir la fabricación y la capacidad en la nube.

“Ya no es un concurso para construir el modelo más grande,” dijo Rodrigo Liang, cofundador y CEO de SambaNova. “Con SN50 y nuestra profunda colaboración con Intel, la carrera real consiste en quién puede encender centros de datos completos con agentes de IA que responden al instante, nunca se detienen, y lo hacen a un costo que convierte la IA de un experimento en el motor más rentable en la nube.”

“Los clientes están pidiendo más opciones y formas más eficientes de escalar la IA,” dijo Kevork Kechichian, EVP, Gerente General, Data Center Group, Intel. “Al combinar el liderazgo de Intel en cómputo, redes y memoria con los sistemas de IA de pila completa y la plataforma de nube de inferencia de SambaNova, estamos ofreciendo una opción convincente para organizaciones que buscan alternativas a GPU para implementar IA avanzada a escala.”

El SN50 ofrece cinco veces más cómputo por acelerador y cuatro veces más ancho de banda de red que la generación anterior. Conecta hasta 256 aceleradores mediante una interconexión de varios terabytes por segundo, reduciendo el tiempo hasta el primer token y admitiendo tamaños de lote más grandes. El resultado: Las empresas pueden implementar modelos de IA más grandes y de contexto más largo con mayor rendimiento y capacidad de respuesta — mientras mantienen el rendimiento alto y los costos y la latencia bajo control.

La historia continúa  

“La IA se está moviendo de una historia de software a una historia de infraestructura,” dijo Landon Downs, cofundador y socio gerente de Cambium Capital. “SN50 está diseñado para los requisitos reales de latencia y económicos que determinarán quién implementa con éxito IA agentic a escala.”

La noticia sigue a las reservas récord e ingresos de SambaNova mientras cerraba 2025, reflejando una demanda acelerada de sistemas de IA listos para producción en servicios financieros, telecomunicaciones, energía y despliegues soberanos en todo el mundo.

Construido para producción agentic

Construido sobre la arquitectura Reconfigurable Data Unit (RDU) de SambaNova, SN50 ofrece:

**Experiencias de IA instantáneas** — La latencia ultrabaja proporciona capacidad de respuesta en tiempo real para aplicaciones empresariales de próxima generación como asistentes de voz.
**Escala y concurrencia inigualables** — Potencia miles de sesiones simultáneas de IA con un rendimiento alto y consistente.
**Capacidad revolucionaria del modelo** — La arquitectura de memoria de tres niveles desbloquea modelos de 10T+ parámetros y longitudes de contexto de 10M+ para un razonamiento más profundo y salidas más ricas.
**Máxima eficiencia a escala** — La mayor utilización del hardware reduce el costo por token, impulsando un mayor rendimiento y ROI.
**Memoria más inteligente, eficiencia más inteligente** — Memoria residente multi-modelo y caché agentic optimizan la arquitectura de tres niveles, reduciendo los costos de infraestructura para despliegues de IA a escala empresarial.

“El nuevo SambaNova SN50 RDU cambia los tokenomics de la inferencia de IA a escala. Al ofrecer tanto alto rendimiento como alta capacidad de procesamiento con un chip que utiliza la potencia existente y se enfría por aire, SambaNova está cambiando el juego,” dice Peter Rutten, vicepresidente de investigación en Performance Intensive Computing en la firma analista IDC.

SoftBank despliega SN50 dentro de sus centros de datos de IA en Japón

SoftBank Corp. será el primer cliente en implementar SN50 dentro de sus centros de datos de IA de próxima generación en Japón. El despliegue impulsará servicios de inferencia de baja latencia para clientes soberanos y empresariales en toda la región Asia-Pacífico, respaldando tanto modelos de frontera de código abierto como modelos propietarios con requisitos agresivos de latencia y capacidad de procesamiento.

“Con SN50, estamos construyendo una red de inferencia de IA para Japón que puede atender a nuestros clientes y socios con la velocidad, resiliencia y soberanía que esperan de SoftBank,” dijo Hironobu Tamba, vicepresidente y responsable de Head of the Data Platform Strategy Division de la Technology Unit en SoftBank Corp. “Al estandarizar en SN50, ganamos la capacidad de entregar servicios de IA de clase mundial en nuestros propios términos — con el rendimiento de los mejores clústeres de GPU, pero con una economía y control mucho mejores.”

El despliegue de SN50 profundiza la relación existente de SambaNova con SoftBank Corp., que ya aloja SambaCloud para proporcionar inferencia ultrarrápida para desarrolladores en la región. Al anclar sus clústeres más nuevos en SN50, SoftBank posiciona a SambaNova como la columna vertebral de inferencia para sus iniciativas soberanas de IA y sus futuros servicios agentic a gran escala.

SambaNova e Intel planean colaboración multi-año

SambaNova e Intel han iniciado una colaboración estratégica planificada de varios años para entregar soluciones de inferencia de IA de alto rendimiento y eficientes en costos para empresas nativas de IA, proveedores de modelos, empresas y organizaciones gubernamentales en todo el mundo. La colaboración brindará a los clientes una alternativa poderosa a las soluciones centradas en GPU, ofreciendo rendimiento optimizado para modelos líderes de código abierto con capacidad de procesamiento predecible y costo total de propiedad.

Como parte de la colaboración, Intel planea realizar una inversión estratégica en SambaNova para acelerar el despliegue de una nube de IA impulsada por Intel. Se espera que la colaboración abarque tres áreas clave:

**Expansión de nube de IA —** Escalar la nube de IA verticalmente integrada de SambaNova, construida sobre infraestructura basada en Intel Xeon y optimizada para modelos de lenguaje grande y multimodales. La plataforma entregará servicios de IA de baja latencia y alta capacidad de procesamiento, respaldados por arquitecturas de referencia, planos de despliegue y alianzas con integradores de sistemas y proveedores de software.
**Infraestructura de IA integrada —** Combinando los sistemas de SambaNova con las CPU, aceleradores y tecnologías de redes de Intel para habilitar inferencia escalable lista para producción para razonamiento, generación de código, aplicaciones multimodales y flujos de trabajo agentic.
**Ejecución de comercialización —** Venta conjunta y co-marketing a través de los canales globales de empresa, nube y socios de Intel para acelerar la adopción en todo el ecosistema de IA.

En conjunto, SambaNova e Intel buscan dar forma a la próxima generación de centros de datos heterogéneos de IA — integrando procesadores Intel Xeon, GPUs Intel, redes y almacenamiento Intel, y sistemas SambaNova — para desbloquear una oportunidad de mercado de inferencia de varios miles de millones de dólares.

Recauda $350M+, liderado por Vista y Cambium

La ronda de la Serie E con sobredemanda fue liderada por Vista Equity Partners y Cambium Capital, con fuerte participación de Intel Capital.

Nuevos inversionistas que se incorporan a la ronda incluyen: Assam Ventures, Battery Ventures, First Data, Gulf Development Public Company Limited, Mayfield Capital, Saudi First Data, Seligman Ventures y cuentas asesoradas por T. Rowe Price Associates, Inc. Inversionistas existentes que participan incluyen: A&E, 8Square, Atlantic Bridge, BlackRock, GV, Nepenthe, Nuri Capital y Redline Capital.

El Sr. Sharaf Al Hariri, Presidente de First Data, declaró que SambaNova forma una parte central de la estrategia de inversión de First Data para llevar tecnologías avanzadas de IA al Reino de Arabia Saudita y a la región más amplia de Oriente Medio. Subrayó que First Data está invirtiendo en las plataformas de SambaNova para habilitar capacidades de IA de alto rendimiento, baja latencia y listas para lo soberano, al tiempo que se beneficia de requisitos de bajo consumo y la capacidad de operar de manera eficiente dentro de entornos existentes de centros de datos con enfriamiento por aire. Dentro de esta estrategia, SambaNova respalda la inferencia avanzada y servicios de IA escalables, fortaleciendo la capacidad de First Data para entregar infraestructura y soluciones de IA de clase mundial. También señaló que esta inversión refleja el compromiso más amplio de First Data, a largo plazo, con diversificar su cartera tecnológica, construir capacidades de innovación resilientes y posicionar a la empresa para adaptarse a las tendencias tecnológicas globales en evolución mientras entrega valor sostenible a la región.

A medida que se expanden las cargas de trabajo agentic, las empresas descubren que la infraestructura optimizada para entrenamiento tiene dificultades para cumplir los requisitos de latencia y costo de producción: “Nos enorgullece invertir en SambaNova en un momento tan decisivo en el crecimiento de la compañía,” dijo Monti Saroya, socio en Vista Capital. “SN50 está diseñado para sistemas de IA agentic que orquestan múltiples modelos y procesan solicitudes en casi tiempo real de manera más eficiente que los sistemas tradicionales centrados en GPU.”

Los recursos se usarán para expandir la producción de SN50, escalar SambaCloud y profundizar las integraciones de software empresarial.

Acerca de SambaNova

SambaNova es líder en infraestructura de IA de próxima generación, proporcionando una plataforma de pila completa que impulsa la inferencia de IA más rápida y más eficiente para empresas, NeoClouds, laboratorios de IA y proveedores de servicios, y las iniciativas soberanas de IA en todo el mundo. Fundada en 2017 y con sede en San Jose, California, SambaNova entrega chips, sistemas y servicios en la nube que permiten a los clientes implementar modelos de vanguardia con rendimiento superior, menor costo total de propiedad y rápida obtención de valor.

Para más información, visite sambanova.ai o siga a SambaNova en X y LinkedIn.

[1] SemiAnalysis InferenceX - Llama 3.3 70B velocidad máxima en Nvidia B200 en FP8 y entrada/salida de 1K/1k - 184 tokens por segundo por usuario. Llama 3.3 70B velocidad máxima en SN50 en FP8 y entrada/salida de 1K/1k - 895 tokens por segundo por usuario.

[2] SemiAnalysis InferenceX - Llama 3.3 70B capacidad de procesamiento por chip en Nvidia B200 en FP8 y entrada/salida de 1K/1k - en una gama de configuraciones, la capacidad de procesamiento total por GPU versus la capacidad de procesamiento total por RDU pasa de ~1X (a 33 tokens por segundo por usuario) a ~25X de ventaja para RDUs (a 184 tokens por segundo por usuario). 3X se deriva como la ventaja promedio de capacidad de procesamiento para SN50 a través de Llama 70B, GPT-OSS 120B y DeepSeek 671B, asumiendo un presupuesto de latencia.

Ver versión de la fuente en businesswire.com:

Contactos

**Contacto de prensa: **
Emad Abdo
Emad@memediapro.com
+350Mérminos y Política de Privacidad

Panel de Privacidad

Más información

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado