【AI+NVDA】NVIDIAがGTCカンファレンスでAI推論チップを発表予定 BlackwellやRubinチップと何が違うのか?

robot
概要作成中

NVIDIA(米国:NVDA、Nvidia)は、間もなく年次GTCカンファレンスを開催します。外部メディアの報道によると、NVIDIAのCEO、黄仁勳(黄仁勳)はGTCで「推論」に焦点を当てた新しいチップを発表する予定であり、このチップはモデルの訓練ではなく、モデルの実行に使用されるとのことです。

報道によると、これは昨年12月にAIチップのスタートアップ企業Groqと、価値200億ドルの非独占技術ライセンス契約を締結し、Groqの創設者とコアチームがNVIDIAに加わった後、同社が初めてリリースする新製品となります。

Groqは、言語処理ユニット(Language Processing Unit、LPU)の開発で知られ、複雑なAIクエリに高速で応答します。契約成立から3か月後、NVIDIAはGroqのアーキテクチャを基盤としたLPUをリリースし、間もなく登場するフラッグシップのVera Rubin GPUと連携させ、競合他社に対抗し、新しいAIアプリケーション向けの製品シリーズの一部として展開する予定です。

報道によると、過去3年間、NVIDIAの巨大な時価総額は、そのGPUが生成型AI産業の柱となり、OpenAIのChatGPTなどのモデルの訓練に用いられてきたことに大きく寄与しています。黄仁勳は、単一のシステムが新しいAIモデルの訓練だけでなく、これらのモデルを基にしたチャットボットやコーディングツールの運用にも利用できると考えています。大手テクノロジー企業はこれらのシステムに数千億ドルを投資していますが、同時に自社専用のAIチップの開発にも取り組んでいます。さらに、AIツールの複雑化、例えばエージェントの登場により、黄仁勳は「1つのGPUであらゆる負荷を処理できる」という理念を放棄せざるを得なくなる可能性も示唆しています。

新しい推論用チップはHBMメモリではなくSRAMを採用

一方、HBMメモリの価格が高騰し供給が逼迫する中、SKハイニックスやMicronなどのメモリ供給業者はAIの需要を満たすのが難しくなると見られています。NVIDIAのフラッグシップシステムであるBlackwellやRubinは、高帯域幅のメモリを用いてAIモデルが扱う大量のデータ負荷を処理しています。

情報筋によると、NVIDIAのこのGroqに似たチップは、HBMで使われるダイナミックランダムアクセスメモリ(DRAM)ではなく、静的ランダムアクセスメモリ(SRAM)を採用するとのことです。SRAMは入手しやすく、AIの「推論」タスクを高速化するのにより適しているとされています。

NVIDIAはこれらの報道についてコメントを控えています。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
コメントを追加
コメントを追加
コメントなし
  • ピン