SambaNova、エージェンティックAI向け最速チップを発表、Intelと協力し、3億5千万ドル以上を調達

これは有料のプレスリリースです。お問い合わせは、プレスリリース配信業者に直接ご連絡ください。

SambaNova、エージェント型AI向けに最速のチップを発表、Intelと協業し、$350M+を調達

Business Wire

2026年2月27日(GMT+9)午前3:24 8分で読めます

この記事内:

INTC

-3.04%

9434.T

+0.05%

SambaNovaのSN50チップは、競合チップに比べ最大5倍の高速性能を誇ります。GPUより3倍低いコストでエージェント型AIを稼働し、推論コストを削減してマージンを最大化します。

_新しいSN50チップは、競合チップに比べ最大5倍の高速性能を誇ります [1]_
_GPUより3倍低いコストでエージェント型AIを稼働 — 推論コストを削減し、マージンを最大化 [2]_
_SoftBank Corp.が、日本の次世代AIデータセンターにSN50を導入する最初の顧客となります_
_SambaNovaとIntelは、クラウド規模のAI推論を提供するための複数年にわたる戦略的協業を計画し、数十億ドル規模の市場機会を解き放ちます_
_$350 millionの戦略的Series E資金調達。新規投資家にはVista Equity Partners、Cambium Capital、First Data、Intel Capital,__ Battery Ventures、ならびにT. Rowe Price Associates, Inc.が助言する口座が含まれます_

ドバイ、アラブ首長国連邦、2026年2月26日–(BUSINESS WIRE)–SambaNovaは本日、競合チップに比べ最大5Xの速度を誇るSN50 AIチップを発表しました。同社はまた、高性能でコスト効率の高いAI推論ソリューションを提供するためにIntelとの協業計画を発表し、新規および既存の投資家から$350M超の投資を受けるとしました。

エージェント型AI向けに最も効率的なチップとして位置付けられたSN50は、企業に対し所有総コストを3X低減します。高速な推論をスケールし、自律型AIエージェントを本番運用へ投入するための強力な基盤です。SN50は本年後半に顧客へ出荷されます。

SN50を迅速にスケールし配布するため、SambaNovaはIntelと協業しており、製造とクラウドの能力を拡大するための戦略的Series Eとして$350 millionの資金調達を獲得しました。

"AIは、もはや最大のモデルを作るための競争ではありません。"と、SambaNovaの共同創業者兼CEOであるRodrigo Liang氏は述べました。“SN50とIntelとの深い協業により、本当の勝負は、AIエージェントが即答し、決して止まらず、そのコストでAIを実験からクラウドで最も収益性の高いエンジンへと変えることができるのは誰か——という点にあります。”

"顧客は、AIをスケールするためのより多くの選択肢と、より効率的な方法を求めています。"と、IntelのEVP、ゼネラルマネージャー、データセンターグループであるKevork Kechichian氏は述べました。“Intelの計算、ネットワーキング、メモリにおけるリーダーシップと、SambaNovaのフルスタックAIシステムおよび推論クラウドプラットフォームを組み合わせることで、GPUに代わる選択肢として、先進的なAIを大規模に展開したい組織にとって魅力的な選択肢を提供します。”

SN50は、従来世代よりもアクセラレータあたり5倍の計算量と、4倍のネットワーク帯域幅を提供します。マルチテラバイト/秒のインターコネクトで最大256のアクセラレータを接続し、最初のトークンまでの時間を短縮し、より大きなバッチサイズをサポートします。その結果、企業は、高いパフォーマンスを維持しつつ、より大きく、より長いコンテキストのAIモデルを高いスループットと応答性で展開でき——同時に、コストとレイテンシーを管理下に保てます。

ストーリー続き  

"AIはソフトウェアの物語から、インフラの物語へと移行しています。"と、Cambium Capitalの共同創業者兼マネージングパートナーであるLandon Downs氏は述べました。“SN50は、エージェント型AIを大規模に成功裏に展開することを左右する、現実世界のレイテンシーと経済要件のために設計されています。”

このニュースは、SambaNovaが2025年の締めくくりに際して記録的な受注と売上を計上したことに続くものです。これにより、金融サービス、通信、エネルギー、そして世界各地でのソブリン導入における、本番投入可能なAIシステムへの需要が加速していることが示されました。

エージェント型の本番運用に向けて構築

SambaNovaの再構成可能データユニット(RDU)アーキテクチャに基づき、SN50は以下を提供します:

**瞬時のAI体験** — 超低レイテンシーにより、音声アシスタントのような次世代エンタープライズアプリに対してリアルタイムの応答性を実現。
**比類なきスケールと並行性** — 一貫して高いパフォーマンスで、何千もの同時AIセッションをパワー。
**画期的なモデル容量** — 3層メモリのアーキテクチャにより、10T+パラメータモデルおよび10M+のコンテキスト長を解放し、より深い推論と豊かな出力を可能にします。
**スケールでの最大効率** — ハードウェアの利用率を高めることで、トークンあたりのコストを下げ、より大きなパフォーマンスとROIを生み出します。
**より賢いメモリ、より賢い効率** — 居住型のマルチモデルメモリとエージェント型キャッシュにより、3層アーキテクチャを最適化し、エンタープライズ規模のAI導入におけるインフラコストを削減します。

“新しいSambaNova SN50 RDUは、大規模AI推論におけるトークンエコノミクスを変えます。既存の電力を使用し、空冷で動作するチップによって、高いパフォーマンスと高いスループットの両方を提供することで、SambaNovaはゲームを変えています,” と、アナリスト企業IDCのResearch Vice-President Performance Intensive ComputingであるPeter Rutten氏は述べています。

SoftBankが日本のAIデータセンター内でSN50を導入

SoftBank Corp.は、日本の次世代AIデータセンター内でSN50を導入する最初の顧客となります。この導入は、アジア太平洋全域の、ソブリンおよびエンタープライズ顧客向けの低レイテンシー推論サービスを支えるものです。攻撃的なレイテンシーおよびスループット要件を備えつつ、オープンソースおよび独自のフロンティアモデルの双方をサポートします。

"SN50により、私たちは日本向けに、顧客やパートナーへ求められるスピード、レジリエンス、ソブリン性をもって提供できるAI推論ファブリックを構築しています。"と、SoftBank Corp.のTechnology Unitにおけるデータプラットフォーム戦略部門のVice President 兼 HeadであるHironobu Tamba氏は述べました。“SN50へ標準化することで、自社の条件で世界クラスのAIサービスを提供する能力を得ます。最高のGPUクラスタのパフォーマンスを備えながら、はるかに優れた経済性とコントロールが可能です。”

SN50の導入により、SambaNovaはすでに同地域の開発者向けに超高速推論を提供するためにSambaCloudをホストしているSoftBank Corp.との既存の関係を一層深めます。最新クラスターをSN50で軸に据えることで、SoftBankは自社のソブリンAIイニシアチブおよび将来の大規模なエージェント型サービスにおける推論バックボーンとしてSambaNovaを位置付けています。

SambaNovaとIntelは複数年にわたる協業を計画

SambaNovaとIntelは、世界中のAIネイティブ企業、モデルプロバイダー、エンタープライズ、政府機関向けに、高性能でコスト効率の高いAI推論ソリューションを提供するための複数年の戦略的協業を計画しています。この協業により、顧客はGPU中心のソリューションに対する強力な代替案を得られます。予測可能なスループットと所有総コストで、主要なオープンソースモデル向けに最適化されたパフォーマンスを提供します。

協業の一環として、IntelはIntelがパワーするAIクラウドの展開を加速するために、SambaNovaへ戦略的投資を行う計画です。この協業は、3つの主要分野にまたがる見込みです:

**AIクラウドの拡大 —** Intel Xeonベースのインフラを土台に構築され、大規模言語およびマルチモーダルモデル向けに最適化された、SambaNovaの垂直統合型AIクラウドをスケールします。このプラットフォームは、リファレンスアーキテクチャ、デプロイメントのブループリント、システムインテグレーターおよびソフトウェアベンダーとの連携によって支えられ、低レイテンシーかつ高スループットのAIサービスを提供します。
**統合型AIインフラ —** SambaNovaのシステムとIntelのCPU、アクセラレータ、ネットワーキング技術を組み合わせ、推論、コード生成、マルチモーダルアプリケーション、およびエージェント型ワークフロー向けの、スケーラブルで本番投入可能な推論を実現します。
**Go-to-Marketの実行 —** Intelのグローバルなエンタープライズ、クラウド、パートナーチャネルを通じた共同のコセリングおよびコマーケティングにより、AIエコシステム全体での採用を加速します。

SambaNovaとIntelは、次世代の異種混在(heterogeneous)AIデータセンターを形作ることを目指します。つまり、Intel Xeonプロセッサ、Intel GPU、Intelのネットワーキングおよびストレージ、そしてSambaNovaのシステムを統合し、多額の数十億ドル規模の推論市場機会を解き放つことを目標とします。

VistaとCambiumに率いられ、$350M+を調達

過剰申込(oversubscribed)となったSeries EラウンドはVista Equity PartnersとCambium Capitalが主導し、Intel Capitalからの強い参加がありました。

このラウンドに新たに参加する投資家には、Assam Ventures、Battery Ventures、First Data、Gulf Development Public Company Limited、Mayfield Capital、Saudi First Data、Seligman Ventures、ならびにT. Rowe Price Associates, Inc.が助言する口座が含まれます。参加している既存投資家には、A&E、8Square、Atlantic Bridge、BlackRock、GV、Nepenthe、Nuri Capital、Redline Capitalが含まれます。

First Dataの会長であるSharaf Al Hariri氏は、SambaNovaがFirst Dataの投資戦略の中核を成し、サウジアラビア王国およびより広い中東地域に先進的なAI技術をもたらすと述べました。同氏は、First Dataが、低電力要件や、既存の空冷データセンター環境内で効率的に運用できる能力という恩恵を受けつつ、高性能で低レイテンシーかつソブリン対応可能なAI機能を可能にするためにSambaNovaのプラットフォームへ投資していることを強調しました。この戦略の中で、SambaNovaは先進的な推論およびスケーラブルなAIサービスを支援し、First Dataが世界クラスのAIインフラおよびソリューションを提供する力を強化しています。同氏はさらに、この投資が、テクノロジーポートフォリオの多様化、レジリエントなイノベーション能力の構築、そして地域へ持続可能な価値を提供しながら進化する世界の技術トレンドに適応できるようにするというFirst Dataのより広範で長期的な取り組みを反映しているとも述べました。

エージェント型ワークロードが拡大するにつれ、企業は、学習向けに最適化されたインフラが本番におけるレイテンシーとコスト要件を満たすのに苦労することを見出しています。「私たちは、同社の成長における非常に重要なタイミングでSambaNovaへ投資できることを誇りに思います」と、Vista CapitalのパートナーであるMonti Saroya氏は述べました。「SN50は、複数のモデルをオーケストレーションし、従来のGPU中心のシステムよりも効率的にほぼリアルタイムでリクエストを処理する、エージェント型AIシステムのために設計されています。」

調達資金は、SN50の生産拡大、SambaCloudのスケール、エンタープライズ向けソフトウェア統合の強化に使われます。

SambaNovaについて

SambaNovaは次世代AIインフラのリーダーであり、エンタープライズ、NeoClouds、AIラボ、サービスプロバイダー、および世界中のソブリンAIイニシアチブ向けに、最速で最も効率的なAI推論を可能にするフルスタックのプラットフォームを提供しています。2017年に設立され、カリフォルニア州サンノゼに本社を置くSambaNovaは、顧客が最先端のモデルを優れたパフォーマンス、低い所有総コスト、迅速な価値実現(time to value)で展開できるようにするチップ、システム、クラウドサービスを提供しています。

詳しくはsambanova.aiをご覧ください。もしくはXおよびLinkedInでSambaNovaをフォローしてください。

[1] SemiAnalysis InferenceX - Nvidia B200のFP8および1K入力/1k出力でのLlama 3.3 70B最大速度 - ユーザーあたり秒間184トークン。Nvidia B200のFP8および1K入力/1k出力でのSN50上のLlama 3.3 70B最大速度 - ユーザーあたり秒間895トークン。

[2] SemiAnalysis InferenceX - Nvidia B200のFP8および1K入力/1k出力でのチップあたりのLlama 3.3 70Bスループット - 設定範囲全体において、GPUの総スループット対RDUの総スループットの比は、~1X(ユーザーあたり秒間33トークン時)から、RDUでは~25Xの優位(ユーザーあたり秒間184トークン時)へと変化します。3Xは、レイテンシー予算を仮定して、Llama 70B、GPT-OSS 120B、DeepSeek 671BにわたるSN50の平均スループット優位として導出されています。

businesswire.comのソース版を表示:

お問い合わせ

**プレス連絡先: **
Emad Abdo
Emad@memediapro.com
+971522038872

利用規約とプライバシーポリシー

プライバシーダッシュボード

追加情報

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン