IT之家 3月6日消息。テクノロジーメディアの Wccftech は昨日(3月5日)にブログ記事を公開し、同記事では、モルガン・スタンレーの会議において NVIDIA の最高経営責任者(CEO)である黄仁勲氏が、エージェント型AI(Agentic AI)が重大な歴史的転換点を迎えていると述べたことを報じた。 黄仁勲氏は、オープンソースソフトウェア OpenClaw を高く評価し、「私たちの時代における最も重要なソフトウェアのリリースだ」と称した。さらに、Linux オペレーティングシステムが現在の普及レベルに到達するまでに約30年を要したのに対し、OpenClaw はたった3週間でそれを全面的に上回り、歴史上ダウンロード数が最大のオープンソースソフトウェアになったと強調した。 黄仁勲氏は AI 産業を、生き生きとした比喩で「5層ケーキ」(エネルギー、チップおよび計算基盤インフラ、クラウドデータセンター、AIモデル、そして最終のアプリケーション層を含む)に例えた。その中で、超大規模なクラウド事業者や最先端の研究室にもたらす最大のリターンを生むのは、まさにアプリケーション層だという。 IT之家 がブログ記事を引用して紹介するところによれば、OpenClaw が広く歓迎されているのは、底層の実装が非常に複雑だからではない。むしろそれが、AI が消費者の生活を直接変え、面倒で繰り返しの多い作業を大幅に簡素化できることを世界に証明したからだ。 黄仁勲氏は次のように説明した。エージェントは一連のプロンプトだけで、本来は多くの時間と専門知識を要していたタスク(大量のネット検索、画像生成、複雑な分析など)を実行できる。その結果、Token 消費量が約1000倍に急増し、直接「計算能力の真空(算力真空)」を生み出した。エージェント型AI が引き続き人間の仕事へ浸透していく限り、既存のハードウェア導入は規模がどれほど大きくても、計算能力に制約のある状態に置かれるという。 この計算能力の不均衡に対応するため、NVIDIA はチップアーキテクチャの研究開発における重点を調整している。これまでの Hopper および Blackwell のアーキテクチャは、主に AI の学習ワークロードに注力していた。しかし、エージェント型AI がもたらす長いコンテキスト処理におけるボトルネックに直面している。間もなく登場する Vera Rubin アーキテクチャは、オンボードメモリのコンポーネントを大幅に引き上げ、ICMS などのプラットフォームを採用することで、この制限を専用に解決する。
NVIDIAの黄仁勋氏、OpenClaw AIインテリジェンスを絶賛:3週間でLinuxの30年の蓄積を超える普及度
IT之家 3月6日消息。テクノロジーメディアの Wccftech は昨日(3月5日)にブログ記事を公開し、同記事では、モルガン・スタンレーの会議において NVIDIA の最高経営責任者(CEO)である黄仁勲氏が、エージェント型AI(Agentic AI)が重大な歴史的転換点を迎えていると述べたことを報じた。
黄仁勲氏は、オープンソースソフトウェア OpenClaw を高く評価し、「私たちの時代における最も重要なソフトウェアのリリースだ」と称した。さらに、Linux オペレーティングシステムが現在の普及レベルに到達するまでに約30年を要したのに対し、OpenClaw はたった3週間でそれを全面的に上回り、歴史上ダウンロード数が最大のオープンソースソフトウェアになったと強調した。
黄仁勲氏は AI 産業を、生き生きとした比喩で「5層ケーキ」(エネルギー、チップおよび計算基盤インフラ、クラウドデータセンター、AIモデル、そして最終のアプリケーション層を含む)に例えた。その中で、超大規模なクラウド事業者や最先端の研究室にもたらす最大のリターンを生むのは、まさにアプリケーション層だという。
IT之家 がブログ記事を引用して紹介するところによれば、OpenClaw が広く歓迎されているのは、底層の実装が非常に複雑だからではない。むしろそれが、AI が消費者の生活を直接変え、面倒で繰り返しの多い作業を大幅に簡素化できることを世界に証明したからだ。
黄仁勲氏は次のように説明した。エージェントは一連のプロンプトだけで、本来は多くの時間と専門知識を要していたタスク(大量のネット検索、画像生成、複雑な分析など)を実行できる。その結果、Token 消費量が約1000倍に急増し、直接「計算能力の真空(算力真空)」を生み出した。エージェント型AI が引き続き人間の仕事へ浸透していく限り、既存のハードウェア導入は規模がどれほど大きくても、計算能力に制約のある状態に置かれるという。
この計算能力の不均衡に対応するため、NVIDIA はチップアーキテクチャの研究開発における重点を調整している。これまでの Hopper および Blackwell のアーキテクチャは、主に AI の学習ワークロードに注力していた。しかし、エージェント型AI がもたらす長いコンテキスト処理におけるボトルネックに直面している。間もなく登場する Vera Rubin アーキテクチャは、オンボードメモリのコンポーネントを大幅に引き上げ、ICMS などのプラットフォームを採用することで、この制限を専用に解決する。