تحجب Nvidia رقائق الذكاء الاصطناعي المحلية ، وقوة الحوسبة الشاملة ل "China Special Edition" H20 أقل بنسبة 80٪ من H100

رقائق Nvidia الذكاء الاصطناعي الثلاثة الجديدة هذه ليست "إصدارات محسنة" ، ولكنها "إصدارات متقلصة" ، منها HGX H20 محدودة من حيث النطاق الترددي وسرعة الحوسبة ، ومن المتوقع أن ينخفض سعر H20 ، لكنه سيظل أعلى من شريحة الذكاء الاصطناعي المحلية 910B.

المصدر الأصلي: تيتانيوم ميديا

المؤلف: لين تشيجيا

مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود

في 10 نوفمبر ، أفيد مؤخرا أن شركة NVIDIA العملاقة للرقائق (NVIDIA) ستطلق ثلاث رقائق الذكاء الاصطناعي للسوق الصينية على أساس H100 استجابة لأحدث ضوابط تصدير الرقائق في الولايات المتحدة.

وفقا لوثيقة المواصفات ، ستطلق Nvidia قريبا منتجات جديدة للعملاء الصينيين المسماة HGX H20 و L20 PCle و L2 PCle ، والتي تستند إلى معماريات Hopper و Ada Lovelace من Nvidia. انطلاقا من المواصفات والتسمية ، تهدف المنتجات الثلاثة إلى سيناريوهات التدريب والاستدلال والحافة ، وسيتم الإعلان عنها في 16 نوفمبر على أقرب تقدير ، ووقت تسليم عينة المنتج من نوفمبر إلى ديسمبر من هذا العام ، ووقت الإنتاج الضخم من ديسمبر من هذا العام إلى يناير من العام المقبل.

** علم تطبيق Titanium Media App من عدد من شركات سلسلة صناعة NVIDIA أن الأخبار المذكورة أعلاه صحيحة. **

تعلم تطبيق Titanium Media App أيضا حصريا أن رقائق الذكاء الاصطناعي الثلاث من NVIDIA ليست "إصدارات محسنة" ، ولكنها "إصدارات متقلصة". من الناحية النظرية ، فإن قوة الحوسبة الإجمالية أقل بحوالي 80٪ من شريحة NVIDIA H100 GPU ، أي أن H20 تساوي 20٪ من أداء طاقة الحوسبة الشامل ل H100 ، وإضافة ذاكرة فيديو HBM ووحدات التوصيل البيني NVLink يحسن تكلفة قوة الحوسبة. لذلك ، على الرغم من أن سعر HGX H20 سينخفض مقارنة ب H100 ، فمن المتوقع أن يظل سعر هذا المنتج أعلى من سعر شريحة الذكاء الاصطناعي المحلية 910B.

"هذا يعادل توسيع ممرات الطرق السريعة ، لكن مدخل بوابة الرسوم لم يتم توسيعه ، مما يحد من حركة المرور. من الناحية الفنية أيضا ، من خلال قفل الأجهزة والبرامج ، يمكن التحكم في أداء الشريحة بدقة ، وليس هناك حاجة لاستبدال خط الإنتاج على نطاق واسع ، حتى إذا تمت ترقية الجهاز ، فلا يزال من الممكن تعديل الأداء حسب الحاجة. في الوقت الحاضر ، تتمتع H20 الجديدة بأداء "عالق" من المصدر. أوضح مصدر في الصناعة شريحة H20 الجديدة ، "على سبيل المثال ، كان الأمر يستغرق 20 يوما لتشغيل مهمة باستخدام H100 ، ولكن الآن قد يستغرق الأمر 100 يوم حتى يتم تشغيل H20 مرة أخرى." "

على الرغم من إصدار جولة جديدة من القيود المفروضة على الرقائق في الولايات المتحدة ، لا يبدو أن Nvidia قد تخلت عن سوق الطاقة الحاسوبية الذكاء الاصطناعي الضخم في الصين.

لذا ، هل يمكن استبدال الرقائق المحلية؟علم تطبيق Titanium Media App أنه بعد الاختبار ، ** في الوقت الحاضر ، من حيث الاستدلال على النموذج الكبير ، يمكن أن تصل شريحة الذكاء الاصطناعي المحلية 910B فقط إلى حوالي 60٪ -70٪ من A100 ، والتدريب النموذجي للكتلة غير مستدام ؛ في الوقت نفسه ، 910B أعلى بكثير من منتجات سلسلة Nvidia A100 / H100 من حيث استهلاك طاقة الحوسبة والتدفئة ، وغير متوافق مع CUDA ، وهو أمر يصعب تلبية احتياجات التدريب النموذجية لمراكز الحوسبة الذكية طويلة الأجل بشكل كامل. **

** حتى الآن ، لم تصدر Nvidia أي تعليق رسمي على هذا. **

يذكر أنه في 17 أكتوبر من هذا العام ، أصدر مكتب الصناعة والأمن (BIS) التابع لوزارة التجارة الأمريكية قواعد جديدة لمراقبة الصادرات للرقائق ، وفرض ضوابط تصدير جديدة على منتجات أشباه الموصلات ، بما في ذلك رقائق الذكاء الاصطناعي عالية الأداء من Nvidia ، ودخلت القيود حيز التنفيذ في 23 أكتوبر. يظهر ملف Nvidia لدى هيئة الأوراق المالية والبورصات الأمريكية أن المنتجات المحظورة التي تدخل حيز التنفيذ الفوري تشمل A800 و H800 و L40S ، أقوى رقائق الذكاء الاصطناعي.

بالإضافة إلى ذلك ، تحتفظ معالجات شرائح L40 و RTX 4090 بنافذة 30 يوما الأصلية.

في 31 أكتوبر ، كانت هناك أخبار تفيد بأن Nvidia قد تضطر إلى إلغاء طلب للحصول على رقائق متقدمة بقيمة 5 مليارات دولار ، وانخفض سعر سهم Nvidia بشكل حاد بسبب الأخبار. في السابق ، لم يكن من الممكن بيع A800 و H800 من Nvidia الموردة حصريا للصين بشكل طبيعي في السوق الصينية بسبب اللوائح الجديدة في الولايات المتحدة ، وكانت هاتان الشريحتان تسميان "الإصدارات المخصي" من A100 و H100 ، وخفضت Nvidia أداء الشريحة من أجل الامتثال للوائح السابقة في الولايات المتحدة.

في 31 أكتوبر ، قال تشانغ شين ، المتحدث باسم المجلس الصيني لتعزيز التجارة الدولية ، إن قواعد مراقبة تصدير أشباه الموصلات الصادرة حديثا والتي أصدرتها الولايات المتحدة إلى الصين قد شددت القيود على تصدير الرقائق المتعلقة بالذكاء الاصطناعي ومعدات تصنيع أشباه الموصلات إلى الصين ، وشملت عددا من الكيانات الصينية في "قائمة الكيانات" لمراقبة الصادرات. وقد انتهكت هذه التدابير التي اتخذتها الولايات المتحدة بشكل خطير مبادئ اقتصاد السوق والقواعد الاقتصادية والتجارية الدولية، وأدت إلى تفاقم خطر تمزق وتجزئة سلسلة التوريد العالمية لأشباه الموصلات. يؤدي الحظر المفروض على صادرات الرقائق إلى الصين الذي تنفذه الولايات المتحدة منذ النصف الثاني من عام 2022 إلى تغيير العرض والطلب العالميين بشكل عميق ، مما يتسبب في اختلال التوازن في المعروض من الرقائق في عام 2023 ، مما يؤثر على نمط صناعة الرقائق العالمية ويضر بمصالح الشركات في مختلف البلدان ، بما في ذلك الشركات الصينية.

مقارنة بين معلمات أداء NVIDIA HGX H20 و L20 و L2 وغيرها من المنتجات

** لقد تعلم تطبيق Titanium Media App ، ** تعتمد منتجات شرائح HGX H20 و L20 و L2 الذكاء الاصطناعي الجديدة على معماريات Hopper و Ada من NVIDIA على التوالي ، وهي مناسبة للتدريب السحابي والاستدلال السحابي واستدلال الحافة.

من بينها ، تحتوي منتجات الاستدلال الذكاء الاصطناعي للاثنين الأخيرين L20 و L2 على حلول مماثلة "للاستبدال المحلي" ومتوافقة مع CUDA ، بينما يعتمد HGX H20 على منتجات رقاقة التدريب H100 و الذكاء الاصطناعي من خلال إخصاء البرامج الثابتة ، لتحل محل A100 / H800 بشكل أساسي.

وفقا للوثائق ، يحتوي H20 الجديد على تقنية تغليف CoWoS المتقدمة ، وقد أضاف HBM3 (ذاكرة عالية الأداء) إلى 96 جيجابايت ، لكن التكلفة زادت أيضا بمقدار 240 دولارا. تصل قوة الحوسبة الكثيفة FP16 ل H20 إلى 148TFLOPS (تريليون عملية فاصلة عائمة في الثانية) ، وهو ما يمثل حوالي 15٪ من قوة الحوسبة ل H100 ، لذلك يجب إضافة خوارزميات إضافية وتكاليف الموظفين. ستتم ترقية NVLink من 400 جيجابايت / ثانية إلى 900 جيجابايت / ثانية ، لذلك سيتم ترقية معدل التوصيل البيني بشكل كبير.

وفقا للتقييم ، فإن H100 / H800 هو مخطط الممارسة السائد لمجموعات طاقة الحوسبة. من بينها ، الحد النظري ل H100 هو 50,000 بطاقة والحد الأقصى لقوة الحوسبة هو 100,000 P ، والحد الأقصى لمجموعة الممارسة H800 هو 20,000-30,000 بطاقة ، بإجمالي 40,000 P قوة الحوسبة ، والحد الأقصى لمجموعة الممارسة A100 هو 16,000 بطاقة والحد الأقصى لقوة الحوسبة هو 9600P.

ومع ذلك ، فإن الحد النظري لشريحة H20 الجديدة هو 50000 بطاقة ، لكن قوة الحوسبة لكل بطاقة هي 0.148P ، وإجمالي قوة الحوسبة ما يقرب من 7400P ، وهو أقل من H100 / H800 و A100. لذلك ، فإن مقياس مجموعة H20 بعيد كل البعد عن المقياس النظري ل H100 ، واستنادا إلى تقدير قوة الحوسبة وتوازن الاتصالات ، يبلغ متوسط قوة الحوسبة الإجمالية المعقولة حوالي 3000P ، ويجب إضافة المزيد من التكاليف والمزيد من قوة الحوسبة لإكمال تدريب نموذج معلمة مستوى 100 مليار.

** أخبر خبيران في صناعة أشباه الموصلات Titanium Media App أنه بناء على تقدير معلمات الأداء الحالية ، من المحتمل جدا ألا يتم بيع منتجات Nvidia B100 GPU إلى السوق الصينية العام المقبل. **

على العموم ، إذا أرادت مؤسسة نموذجية كبيرة إجراء تدريب نموذجي كبير باستخدام معلمات مثل GPT-4 ، فإن حجم مجموعة طاقة الحوسبة هو الجوهر ، وفي الوقت الحالي ، يمكن أن يكون H800 و H100 فقط مؤهلين للتدريب على النماذج الكبيرة ، في حين أن أداء 910B المحلي يتراوح بين A100 و H100 ، وهو مجرد "خيار احتياطي للملاذ الأخير".

الآن أصبح H20 الجديد الذي أطلقته Nvidia أكثر ملاءمة للتدريب على النماذج الرأسية والاستدلال ، والتي لا يمكنها تلبية الاحتياجات التدريبية للنماذج الكبيرة ذات المستوى التريليون ، ولكن الأداء العام أعلى قليلا من أداء 910B ، إلى جانب بيئة CUDA من NVIDIA ، وبالتالي منع مسار الاختيار الوحيد للبطاقات المحلية في سوق الرقائق الذكاء الاصطناعي في الصين في المستقبل بموجب أمر تقييد الرقائق الأمريكية.

وفقا لأحدث تقرير مالي ، في الربع المنتهي في 30 يوليو ، جاء أكثر من 85٪ من مبيعات Nvidia البالغة 13.5 مليار دولار من الولايات المتحدة والصين ، وجاء حوالي 14٪ فقط من المبيعات من دول ومناطق أخرى.

متأثرا بأخبار H20 ، اعتبارا من إغلاق سوق الأسهم الأمريكية في 9 نوفمبر ، ارتفع سعر سهم Nvidia بشكل طفيف بنسبة 0.81٪ ليغلق عند 469.5 دولارا للسهم. في أيام التداول الخمسة الماضية ، ارتفعت Nvidia بأكثر من 10٪ ، مع أحدث قيمة سوقية بلغت 1.16 تريليون دولار.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت