> これら3つの新しいNvidia AIチップは「改良版」ではなく「縮小版」であり、そのうちHGX H20は帯域幅と計算速度の点で制限されており、H20の価格は下がると予想されますが、それでも国産のAIチップ910Bよりも高くなります。出典:Titanium Media著者: Lin Zhijia 画像ソース: Unbounded AIによって生成11月10日、半導体大手のNVIDIA(NVIDIA)が、米国における最新の半導体輸出規制に対応して、H100をベースにした3つのAIチップを中国市場向けに発売すると報じられました。仕様書によると、Nvidiaは、NvidiaのHopperおよびAda Lovelaceアーキテクチャに基づくHGX H20、L20 PCle、およびL2 PCleという名前の新製品を中国の顧客にまもなく発売します。 仕様やネーミングから判断すると、3つの製品はトレーニング、推論、エッジシナリオを対象としており、早くても11月16日に発表され、製品サンプルの納入時期は今年11月から12月、量産時期は今年12月から来年1月となります。**Titanium Media Appは、上記のニュースが真実であることを多くのNVIDIA業界チェーン企業から学びました。 **また、Titanium Media Appは、NVIDIAの3つのAIチップが「改良版」ではなく「縮小版」であることを独占的に知りました。 理論的には、全体的な計算能力はNVIDIA H100 GPUチップよりも約80%低く、つまりH20はH100の包括的な計算能力性能の20%に相当し、HBMビデオメモリとNVLink相互接続モジュールを追加することで計算能力のコストが向上します。 したがって、HGX H20の価格はH100に比べて下がるものの、国産のAIチップ910Bよりも価格が高くなると予想されます。「これは高速道路の車線を拡幅するのと同じですが、料金所の入り口は拡幅されず、交通が制限されます。 また、技術的には、ハードウェアとソフトウェアのロックにより、チップの性能を正確に制御でき、生産ラインを大規模に交換する必要がなく、ハードウェアをアップグレードしても、必要に応じて性能を調整できます。 現在、新しいH20はソースからのパフォーマンスが「スタック」しています。 業界筋は、新しいH20チップについて、「たとえば、以前はH100でタスクを実行するのに20日かかっていましたが、H20を再び実行するのに100日かかる可能性があります」と説明しています。 "米国で新たなチップ規制が発表されたにもかかわらず、エヌビディアは中国の巨大なAIコンピューティングパワー市場をあきらめていないようです。それで、国産チップを置き換えることはできますか?Titanium Media Appは、テスト後、**現在、大規模なモデル推論の観点から、国産AIチップ910BはA100の約60%〜70%にしか到達できず、クラスターのモデルトレーニングは持続不可能であることを学びました;同時に、910Bは、コンピューティングの消費電力と加熱の点でNvidia A100 / H100シリーズ製品よりもはるかに高く、CUDAと互換性がなく、長期的なインテリジェントコンピューティングセンターのモデルトレーニングのニーズを完全に満たすことが困難です。 ****これまでのところ、Nvidiaはこれについて公式にコメントしていません。 **今年10月17日、米国商務省産業安全保障局(BIS)は、エヌビディアの高性能AIチップを含む半導体製品に新たな輸出管理を課すチップの新たな輸出管理規則を発令し、10月23日に規制が発効したと報じられています。 エヌビディアが米国証券取引委員会に提出した書類によると、禁止された製品には、最も強力なAIチップであるA800、H800、L40Sが含まれている。さらに、L40 および RTX 4090 チップ プロセッサは、元の 30 日間のウィンドウを保持します。10月31日、エヌビディアが50億ドル相当の先端チップの受注をキャンセルせざるを得なくなる可能性があるというニュースがあり、そのニュースを受けてエヌビディアの株価は急落しました。 これまで、Nvidiaの中国専用に供給されていたA800とH800は、米国の新規制により中国市場で正常に販売できず、この2つのチップをA100とH100の「去勢版」と呼び、Nvidiaは米国での以前の規制に準拠するためにチップの性能を下げました。10月31日、中国国際貿易促進委員会の張信報道官は、米国が新たに中国に発行した半導体輸出管理規則により、人工知能関連のチップと半導体製造装置の対中輸出に対する規制がさらに強化され、多くの中国企業が輸出管理の「エンティティリスト」に含まれたと述べた。 米国によるこれらの措置は、市場経済の原則と国際的な経済貿易ルールに著しく違反し、世界の半導体サプライチェーンの分裂と分断のリスクを悪化させました。 2022年後半から米国が実施した中国へのチップ輸出禁止は、世界の需給を大きく変化させ、2023年のチップ供給の不均衡を引き起こし、世界のチップ産業のパターンに影響を与え、中国企業を含む各国の企業の利益を損なっています。   NVIDIA HGX H20、L20、L2と他の製品のパフォーマンスパラメータの比較**Titanium Media Appは、新しいHGX H20、L20、L2 AIチップ製品を学習し、それぞれNVIDIAのHopperおよびAdaアーキテクチャに基づいており、クラウドトレーニング、クラウド推論、およびエッジ推論に適しています。その中で、後者の2つのL20とL2のAI推論製品は、同様の「国内代替」とCUDA互換ソリューションを備えていますが、HGX H20は、主にA100 / H800を置き換えるファームウェア去勢によるH100とAIトレーニングチップ製品に基づいています。文書によると、新しいH20はCoWoSの高度なパッケージング技術を搭載し、HBM3(高性能メモリ)を96GBに追加しましたが、コストも240ドル増加しました。 H20のFP16高密度計算能力は、H100の計算能力の約15%にあたる148TFLOPS(1兆浮動小数点演算/秒)に達するため、追加のアルゴリズムと人件費を追加する必要があります。 NVLinkは400GB/sから900GB/sにアップグレードされるため、相互接続レートが大幅にアップグレードされます。評価によると、H100/H800はコンピューティングパワークラスターの主流の実践スキームです。 その中で、H100の理論上の制限は50,000枚のカードで、最大計算能力は100,000 P、H800の最大練習クラスターは20,000〜30,000枚のカードで、合計40,000 Pの計算能力、A100の最大練習クラスターは16,000枚のカードで、最大計算能力は9600Pです。ただし、新しいH20チップの理論上の制限は50,000枚ですが、各カードの計算能力は0.148Pであり、合計計算能力はほぼ7400Pであり、H100 / H800およびA100よりも低くなっています。 したがって、H20クラスターの規模はH100の理論規模とはかけ離れており、計算能力と通信バランスの推定に基づくと、妥当な中央値全体の計算能力は約3000Pであり、1000億レベルのパラメータモデルのトレーニングを完了するには、より多くのコストとより多くの計算能力を追加する必要があります。**2人の半導体業界の専門家がTitanium Media Appに語ったところによると、現在の性能パラメータの推定に基づくと、Nvidia B100 GPU製品は来年中国市場に販売されなくなる可能性が非常に高いとのことです。 **全体として、大規模なモデル企業がGPT-4などのパラメータを使用して大規模なモデルトレーニングを実施したい場合、コンピューティングパワークラスターの規模が中心であり、現在、大規模なモデルトレーニングに対応できるのはH800とH100のみであり、国内の910BのパフォーマンスはA100とH100の間であり、これは「最後の手段のバックアップ選択」にすぎません。現在、Nvidiaが発売した新しいH20は、垂直モデルのトレーニングと推論に適しており、1兆レベルの大規模モデルのトレーニングニーズを満たすことはできませんが、全体的なパフォーマンスは910Bよりもわずかに高く、NVIDIAのCUDAエコロジーと相まって、米国のチップ制限令の下で、将来的に中国のAIチップ市場における国産カードの唯一の選択肢の道を塞いでいます。最新の財務報告によると、7月30日に終了した四半期で、Nvidiaの135億ドルの売上高の85%以上が米国と中国からのものであり、その他の国や地域からの売上高は約14%に過ぎません。H20のニュースの影響を受け、11月9日の米国株式市場の終値時点で、エヌビディアの株価は0.81%わずかに上昇し、1株あたり469.5ドルで取引を終えました。 過去5日間の取引で、エヌビディアは10%以上上昇し、最新の市場価値は1兆1600億ドルに達しました。
Nvidiaは国産のAIチップをブロックし、「China Special Edition」H20の包括的な計算能力はH100よりも80%低くなっています
出典:Titanium Media
著者: Lin Zhijia
11月10日、半導体大手のNVIDIA(NVIDIA)が、米国における最新の半導体輸出規制に対応して、H100をベースにした3つのAIチップを中国市場向けに発売すると報じられました。
仕様書によると、Nvidiaは、NvidiaのHopperおよびAda Lovelaceアーキテクチャに基づくHGX H20、L20 PCle、およびL2 PCleという名前の新製品を中国の顧客にまもなく発売します。 仕様やネーミングから判断すると、3つの製品はトレーニング、推論、エッジシナリオを対象としており、早くても11月16日に発表され、製品サンプルの納入時期は今年11月から12月、量産時期は今年12月から来年1月となります。
**Titanium Media Appは、上記のニュースが真実であることを多くのNVIDIA業界チェーン企業から学びました。 **
また、Titanium Media Appは、NVIDIAの3つのAIチップが「改良版」ではなく「縮小版」であることを独占的に知りました。 理論的には、全体的な計算能力はNVIDIA H100 GPUチップよりも約80%低く、つまりH20はH100の包括的な計算能力性能の20%に相当し、HBMビデオメモリとNVLink相互接続モジュールを追加することで計算能力のコストが向上します。 したがって、HGX H20の価格はH100に比べて下がるものの、国産のAIチップ910Bよりも価格が高くなると予想されます。
「これは高速道路の車線を拡幅するのと同じですが、料金所の入り口は拡幅されず、交通が制限されます。 また、技術的には、ハードウェアとソフトウェアのロックにより、チップの性能を正確に制御でき、生産ラインを大規模に交換する必要がなく、ハードウェアをアップグレードしても、必要に応じて性能を調整できます。 現在、新しいH20はソースからのパフォーマンスが「スタック」しています。 業界筋は、新しいH20チップについて、「たとえば、以前はH100でタスクを実行するのに20日かかっていましたが、H20を再び実行するのに100日かかる可能性があります」と説明しています。 "
米国で新たなチップ規制が発表されたにもかかわらず、エヌビディアは中国の巨大なAIコンピューティングパワー市場をあきらめていないようです。
それで、国産チップを置き換えることはできますか?Titanium Media Appは、テスト後、**現在、大規模なモデル推論の観点から、国産AIチップ910BはA100の約60%〜70%にしか到達できず、クラスターのモデルトレーニングは持続不可能であることを学びました;同時に、910Bは、コンピューティングの消費電力と加熱の点でNvidia A100 / H100シリーズ製品よりもはるかに高く、CUDAと互換性がなく、長期的なインテリジェントコンピューティングセンターのモデルトレーニングのニーズを完全に満たすことが困難です。 **
**これまでのところ、Nvidiaはこれについて公式にコメントしていません。 **
今年10月17日、米国商務省産業安全保障局(BIS)は、エヌビディアの高性能AIチップを含む半導体製品に新たな輸出管理を課すチップの新たな輸出管理規則を発令し、10月23日に規制が発効したと報じられています。 エヌビディアが米国証券取引委員会に提出した書類によると、禁止された製品には、最も強力なAIチップであるA800、H800、L40Sが含まれている。
さらに、L40 および RTX 4090 チップ プロセッサは、元の 30 日間のウィンドウを保持します。
10月31日、エヌビディアが50億ドル相当の先端チップの受注をキャンセルせざるを得なくなる可能性があるというニュースがあり、そのニュースを受けてエヌビディアの株価は急落しました。 これまで、Nvidiaの中国専用に供給されていたA800とH800は、米国の新規制により中国市場で正常に販売できず、この2つのチップをA100とH100の「去勢版」と呼び、Nvidiaは米国での以前の規制に準拠するためにチップの性能を下げました。
10月31日、中国国際貿易促進委員会の張信報道官は、米国が新たに中国に発行した半導体輸出管理規則により、人工知能関連のチップと半導体製造装置の対中輸出に対する規制がさらに強化され、多くの中国企業が輸出管理の「エンティティリスト」に含まれたと述べた。 米国によるこれらの措置は、市場経済の原則と国際的な経済貿易ルールに著しく違反し、世界の半導体サプライチェーンの分裂と分断のリスクを悪化させました。 2022年後半から米国が実施した中国へのチップ輸出禁止は、世界の需給を大きく変化させ、2023年のチップ供給の不均衡を引き起こし、世界のチップ産業のパターンに影響を与え、中国企業を含む各国の企業の利益を損なっています。
**Titanium Media Appは、新しいHGX H20、L20、L2 AIチップ製品を学習し、それぞれNVIDIAのHopperおよびAdaアーキテクチャに基づいており、クラウドトレーニング、クラウド推論、およびエッジ推論に適しています。
その中で、後者の2つのL20とL2のAI推論製品は、同様の「国内代替」とCUDA互換ソリューションを備えていますが、HGX H20は、主にA100 / H800を置き換えるファームウェア去勢によるH100とAIトレーニングチップ製品に基づいています。
文書によると、新しいH20はCoWoSの高度なパッケージング技術を搭載し、HBM3(高性能メモリ)を96GBに追加しましたが、コストも240ドル増加しました。 H20のFP16高密度計算能力は、H100の計算能力の約15%にあたる148TFLOPS(1兆浮動小数点演算/秒)に達するため、追加のアルゴリズムと人件費を追加する必要があります。 NVLinkは400GB/sから900GB/sにアップグレードされるため、相互接続レートが大幅にアップグレードされます。
評価によると、H100/H800はコンピューティングパワークラスターの主流の実践スキームです。 その中で、H100の理論上の制限は50,000枚のカードで、最大計算能力は100,000 P、H800の最大練習クラスターは20,000〜30,000枚のカードで、合計40,000 Pの計算能力、A100の最大練習クラスターは16,000枚のカードで、最大計算能力は9600Pです。
ただし、新しいH20チップの理論上の制限は50,000枚ですが、各カードの計算能力は0.148Pであり、合計計算能力はほぼ7400Pであり、H100 / H800およびA100よりも低くなっています。 したがって、H20クラスターの規模はH100の理論規模とはかけ離れており、計算能力と通信バランスの推定に基づくと、妥当な中央値全体の計算能力は約3000Pであり、1000億レベルのパラメータモデルのトレーニングを完了するには、より多くのコストとより多くの計算能力を追加する必要があります。
**2人の半導体業界の専門家がTitanium Media Appに語ったところによると、現在の性能パラメータの推定に基づくと、Nvidia B100 GPU製品は来年中国市場に販売されなくなる可能性が非常に高いとのことです。 **
全体として、大規模なモデル企業がGPT-4などのパラメータを使用して大規模なモデルトレーニングを実施したい場合、コンピューティングパワークラスターの規模が中心であり、現在、大規模なモデルトレーニングに対応できるのはH800とH100のみであり、国内の910BのパフォーマンスはA100とH100の間であり、これは「最後の手段のバックアップ選択」にすぎません。
現在、Nvidiaが発売した新しいH20は、垂直モデルのトレーニングと推論に適しており、1兆レベルの大規模モデルのトレーニングニーズを満たすことはできませんが、全体的なパフォーマンスは910Bよりもわずかに高く、NVIDIAのCUDAエコロジーと相まって、米国のチップ制限令の下で、将来的に中国のAIチップ市場における国産カードの唯一の選択肢の道を塞いでいます。
最新の財務報告によると、7月30日に終了した四半期で、Nvidiaの135億ドルの売上高の85%以上が米国と中国からのものであり、その他の国や地域からの売上高は約14%に過ぎません。
H20のニュースの影響を受け、11月9日の米国株式市場の終値時点で、エヌビディアの株価は0.81%わずかに上昇し、1株あたり469.5ドルで取引を終えました。 過去5日間の取引で、エヌビディアは10%以上上昇し、最新の市場価値は1兆1600億ドルに達しました。