في 3 أغسطس 2023، قدمت وول ستريت ووادي السيليكون معًا حدثًا كبيرًا صدم الصناعة: السماح لشركة ناشئة بالحصول على تمويل بالديون بقيمة 2.3 مليار دولار أمريكي، وكان الضمان هو أصعب عملة في بطاقة الرسومات H100 في العالم.
يُدعى بطل هذا الحدث الكبير CoreWeave، وعمله الرئيسي هو الخدمات السحابية الخاصة بالذكاء الاصطناعي. ببساطة، فهو يوفر بنية تحتية للطاقة الحاسوبية للشركات الناشئة في مجال الذكاء الاصطناعي والعملاء التجاريين الكبار من خلال بناء مركز بيانات يحتوي على عدد كبير من قوة الحوسبة الخاصة بوحدة معالجة الرسومات. جمعت CoreWeave إجمالي 580 مليون دولار أمريكي وهي حاليًا في الجولة B بقيمة 2 مليار دولار أمريكي.
تأسست CoreWeave في عام 2016 من قبل ثلاثة من تجار السلع في وول ستريت. في البداية، كان لدى الشركة عمل رئيسي واحد فقط: التعدين، واشترت عددًا كبيرًا من وحدات معالجة الرسوميات لبناء مركز لآلات التعدين، خاصة عندما كانت دائرة العملة في انحسار منخفض، قامت الشركة بتخزين عدد كبير من بطاقات الرسومات لمواجهة التقلبات الدورية، وبالتالي أنشأت صداقة ثورية قوية مع نفيديا.
ثلاثة من مؤسسي CoreWeave
في عام 2019، بدأت CoreWeave في تحويل آلات التعدين هذه إلى مراكز بيانات على مستوى المؤسسة لتوفير خدمات سحابية تعمل بالذكاء الاصطناعي للعملاء. لم تكن الأعمال فاترة في البداية، ولكن بعد ولادة ChatGPT، أصبح تدريب واستدلال النماذج الكبيرة يستهلك الكثير لقد انطلقت شركة CoreWeave، التي تمتلك بالفعل عشرات الآلاف من بطاقات الرسومات (ليست بالضرورة أحدث طراز)، على عجل، وكان الباب مزدحماً بالعملاء ومستثمري رأس المال الاستثماري.
ولكن ما يجعل الناس يشعرون بالغرابة هو أن CoreWeave لم تجمع سوى ما مجموعه 580 مليون دولار أمريكي، وأن القيمة الصافية لوحدة معالجة الرسومات في الكتاب لن تتجاوز مليار دولار أمريكي، وحتى التقييم الإجمالي للشركة يبلغ 2 مليار دولار أمريكي فقط، ولكن لماذا تستطيع اقتراض 2.3 مليار عن طريق الرهن العقاري، وماذا عن الدولارات؟ ولماذا تعتبر وول ستريت، التي كانت دائماً ماهرة في الحسابات وحريصة على خفض قيمة الضمانات، سخية إلى هذا الحد؟
السبب هو الأرجح: على الرغم من أن CoreWeave لا يحتوي على الكثير من بطاقات الرسومات في الحساب، إلا أنه حصل على التزام بالتوريد من Nvidia، وخاصة H100.
تعد علاقة CoreWeave القوية مع Nvidia بالفعل سرًا مفتوحًا في وادي السيليكون. هذا النوع من المتشددين متجذر في ولاء CoreWeave ودعمها الثابت لـ Nvidia - فقط باستخدام بطاقات Nvidia، وعدم تصنيع النوى الخاصة بها، ومساعدة Nvidia في تخزين البطاقات عندما لا يمكن بيع بطاقات الرسومات. بالنسبة لهوانغ رينكسون، فإن المحتوى الذهبي لهذه العلاقة يتجاوز بكثير تلك الصداقات البلاستيكية مع مايكروسوفت وجوجل وتيسلا.
لذلك، وعلى الرغم من النقص في Nvidia H100، فقد خصصت Nvidia عددًا كبيرًا من البطاقات الجديدة لـ CoreWeave، حتى على حساب الحد من التوريد إلى الشركات المصنعة الكبرى مثل Amazon وGoogle. وأشاد هوانغ رينكسون خلال المؤتمر الهاتفي قائلاً: "ستظهر مجموعة جديدة من موفري الخدمات السحابية لوحدة معالجة الرسومات، وأشهرهم CoreWeave. إنهم في حالة جيدة جدًا."
وقبل أسبوع من الاستثمار البالغ 2.3 مليار دولار، أعلنت شركة CoreWeave أنها ستنفق 1.6 مليار دولار لبناء مركز بيانات مساحته 42 ألف متر مربع في تكساس. بالاعتماد فقط على علاقتها مع Nvidia وحقوق التوزيع ذات الأولوية، تستطيع CoreWeave اقتراض الأموال لبناء مركز بيانات من البنوك - وهذا النموذج يذكرنا بمطوري العقارات الذين يسعون على الفور للحصول على قروض مصرفية بعد الحصول على الأرض.
لذلك يمكن القول أن التزام العرض الحالي بقيمة H100 يمكن مقارنته بوثيقة الموافقة على الأراضي في العصر الذهبي للعقارات.
H100 هي بطاقة يصعب العثور عليها
وفي مقابلة أجريت معه في أبريل من هذا العام، اشتكى ماسك [2] : "يبدو أنه حتى الكلاب تشتري وحدات معالجة الرسومات الآن."
ومن المفارقات أن Tesla أصدرت شريحة D1 التي طورتها بنفسها في وقت مبكر من عام 2021، والتي تم تصنيعها بواسطة TSMC واعتمدت عملية 7 نانومتر، مدعية أنها قادرة على استبدال A100 السائد في Nvidia في ذلك الوقت. ولكن بعد مرور عامين، أطلقت Nvidia جهاز H100 الأقوى، ولم يكن لدى Tesla D1 أي تكرار للمتابعة، لذلك عندما حاول " ماسك " تشكيل شركة ذكاء اصطناعي خاصة به، كان لا يزال يتعين عليه الركوع مطيعًا أمام باب السيد " هوانغ " و التسول للحصول على بطاقة.
تم إطلاق H100 رسميًا في 20 سبتمبر من العام الماضي، وتم تصنيعه بواسطة عملية TSMC's 4N. بالمقارنة مع سابقتها A100، تعمل البطاقة الفردية H100 على تحسين سرعة الاستدلال بمقدار 3.5 مرة وسرعة التدريب بمقدار 2.3 مرة، وإذا تم استخدام طريقة الحوسبة العنقودية للخادم، فيمكن زيادة سرعة التدريب إلى 9 مرات.عبء العمل الأصلي لمدة أسبوع واحد الآن يستغرق الأمر 20 ساعة فقط.
مخطط معماري GH100
بالمقارنة مع A100، فإن سعر بطاقة واحدة من H100 أكثر تكلفة، حوالي 1.5 إلى 2 أضعاف سعر A100، ولكن كفاءة تدريب النماذج الكبيرة زادت بنسبة 200%، وبالتالي فإن "الأداء لكل دولار" أعلى . إذا تم إقرانه مع أحدث حلول نظام الاتصال عالي السرعة من Nvidia، فقد يكون أداء وحدة معالجة الرسومات لكل دولار أعلى بمقدار 4-5 مرات، لذلك يسعى العملاء بشدة للحصول عليه.
ينقسم العملاء الذين يسارعون لشراء H100 إلى ثلاث فئات:
الفئة الأولى هي عمالقة الحوسبة السحابية الشاملة، مثل Microsoft Azure وGoogle GCP وAmazon AWS. سماتهم هي أن لديهم جيوبًا عميقة ويريدون "تغطية" الطاقة الإنتاجية لشركة Nvidia في كل منعطف، ومع ذلك، فإن كل شركة لديها أيضًا أجندات مخفية، فهم غير راضين عن وضع Nvidia شبه الاحتكاري ويقومون سرًا بتطوير رقائقهم الخاصة لتقليل التكاليف.
الفئة الثانية هي مقدمو خدمات GPU السحابية المستقلون، وتشمل الشركات النموذجية CoreWeave وLambda وRunPod وما إلى ذلك المذكورة أعلاه. يتمتع هذا النوع من الشركات بقدرة حاسوبية صغيرة نسبيًا، ولكنه يمكنه تقديم خدمات مختلفة. تدعم Nvidia أيضًا هذا النوع من الشركات بقوة، بل وتستثمر بشكل مباشر في CoreWeave وLambda. والغرض واضح جدًا: تقديم الخدمات لأولئك العمالقة الذين يقومون ببناء النوى. بشكل خاص، ضع قطرات للعين.
الفئة الثالثة هي الشركات الكبيرة والصغيرة التي تقوم بتدريب LLM (نموذج اللغة الكبيرة) بنفسها. وهي تشمل شركات ناشئة مثل Anthropic، وInflection، وMidjourney، بالإضافة إلى عمالقة التكنولوجيا مثل Apple، وTesla، وMeta. وعادة ما يستخدمون القوة الحاسوبية لمقدمي الخدمات السحابية الخارجية أثناء شراء وحدات معالجة الرسومات الخاصة بهم لبناء مواقدهم الخاصة - أولئك الذين لديهم المال يشترون أكثر، وأولئك الذين ليس لديهم المال يشترون أقل، والهدف الرئيسي هو السماح للناس بأن يصبحوا أغنياء ومقتصدين.
من بين هذه الأنواع الثلاثة من العملاء، تمتلك مايكروسوفت أزور ما لا يقل عن 50 ألف نسخة من H100، وجوجل لديها حوالي 30 ألف نسخة من H100، وأوراكل لديها حوالي 20 ألف نسخة، وتيسلا وأمازون لديها أيضا ما لا يقل عن 10 آلاف نسخة. ويقال إن شركة CoreWeave ملتزمة ببيع 35 ألف نسخة (التسليم الفعلي هو حوالي 10.000). عدد قليل من الشركات الأخرى لديها أكثر من 10000 تذكرة.
كم عدد H100s التي تحتاجها هذه الأنواع الثلاثة من العملاء إجمالاً؟ وفقًا لتوقعات منظمة GPU Utils الخارجية، يبلغ الطلب الحالي على H100 حوالي 432,000. من بينها، يتطلب OpenAI 50000 صورة لتدريب GPT-5، ويتطلب Inflection 22000 صورة، ويتطلب Meta 25000 صورة (يقول البعض 100000 صورة). ويتطلب كل من بائعي السحابة العامة الأربعة الرئيسيين ما لا يقل عن 30000 صورة. صناعة السحابة الخاصة هي 100000 قطعة، كما أن الشركات المصنعة للنماذج الصغيرة الأخرى لديها أيضًا طلب يصل إلى 100000 قطعة. [3] .
ستبلغ شحنات Nvidia H100 حوالي 500000 وحدة في عام 2023. حاليًا، لا تزال الطاقة الإنتاجية لشركة TSMC في ارتفاع، وبحلول نهاية العام، سيتم تخفيف الوضع الصعب لبطاقات H100.
ولكن على المدى الطويل، ستستمر الفجوة بين العرض والطلب على H100 في الاتساع مع ظهور تطبيقات AIGC. وفقًا لتقرير صحيفة فاينانشيال تايمز، فإن حجم شحنات H100 سيصل إلى 1.5 مليون إلى 2 مليون في عام 2024، وهو أعلى بمقدار 3-4 مرات من 500000 هذا العام. [4] .
بل إن توقعات وول ستريت أكثر تطرفًا: يعتقد بنك الاستثمار الأمريكي بايبر ساندلر أن إيرادات مركز بيانات Nvidia ستتجاوز 60 مليار دولار أمريكي في العام المقبل (الربع المالي 24: 10.32 مليار دولار أمريكي). وبناءً على هذه البيانات، يقترب حجم شحن بطاقات A+H من 3 مليون نسخة.
وهناك تقديرات أكثر مبالغ فيها. يقوم أكبر مسبك لخوادم H100 (بحصة سوقية تبلغ 70%-80%) بشحن خوادم H100 منذ يونيو من هذا العام، وزادت طاقته الإنتاجية تدريجيًا في يوليو. وأظهر استطلاع حديث أن المسبك يعتقد أن حجم شحن بطاقات A+H في عام 2024 سيتراوح بين 4.5 مليون و5 ملايين.
وهذا يعني "الثروة والثروة" لشركة NVIDIA، لأن درجة الأرباح الضخمة لـ H100 لا يمكن تصورها بالنسبة للأشخاص في الصناعات الأخرى.
بطاقات الرسومات أغلى من الذهب
من أجل معرفة مدى ربحية H100، يمكننا أيضًا تفكيك قائمة المواد (BOM) الخاصة بها بالكامل.
كما هو موضح في الشكل، يستخدم الإصدار الأكثر تنوعًا من H100، H100 SXM، حزمة CoWoS 7-die من TSMC، ويتم ترتيب ست شرائح 16G HBM3 في صفين يحيطان بشكل وثيق بالشريحة المنطقية الوسطى.
ويشكل هذا أيضًا الأجزاء الثلاثة الأكثر أهمية في H100: شريحة المنطق، ورقاقة ذاكرة HBM، وحزمة CoWoS، بالإضافة إلى ذلك، هناك أيضًا بعض المكونات المساعدة مثل لوحات PCB والمكونات المساعدة الأخرى، لكن قيمتها ليست عالية.
مخطط التفكيك H100
يبلغ حجم الشريحة المنطقية الأساسية 814 مم^2، ويتم إنتاجها في المصنع رقم 18 الأكثر تقدمًا لشركة TSMC في تاينان، وعقدة العملية المستخدمة هي "4N"، على الرغم من أن الاسم يبدأ بالرقم 4، إلا أنه في الواقع 5nm+. ونظرًا لضعف الازدهار في مجالات تصنيع 5 نانومتر، مثل الهواتف المحمولة، فإن TSMC ليس لديها مشكلة في ضمان توريد الرقائق المنطقية.
يتم إنتاج هذه الشريحة المنطقية عن طريق قطع رقاقة بقياس 12 بوصة (مساحة 70,695 ملم^2). في ظل الظروف المثالية، يمكن قطع 86 قطعة. ومع ذلك، مع الأخذ في الاعتبار معدل العائد 80% وخسارة القطع لخط "4N"، فإن آخر واحد يمكن قطع 65 شريحة منطقية فقط من رقاقة مقاس 12 بوصة.
كم تبلغ تكلفة شريحة المنطق الأساسية هذه؟ يبلغ سعر TSMC لعام 2023 للرقاقة مقاس 12 بوصة 13400 دولارًا أمريكيًا، لذا يبلغ سعر الرقاقة الواحدة حوالي 200 دولار أمريكي.
التالي هو 6 شرائح HBM3، والتي يتم توفيرها حاليًا حصريًا من قبل SK Hynix. نشأت هذه الشركة من الإلكترونيات الحديثة. في عام 2002، التزمت تقريبًا بشركة Micron. إنها تتقدم على Micron بما لا يقل عن 3 سنوات من حيث تكنولوجيا الإنتاج الضخم (Micron هي عالق في HBM2e وستعمل Hynix على إنتاجه بكميات كبيرة في منتصف عام 2020).
يظل السعر المحدد لـ HBM سرًا، ولكن وفقًا لوسائل الإعلام الكورية، فإن HBM يبلغ حاليًا 5-6 أضعاف سعر منتجات DRAM الحالية. يبلغ سعر ذاكرة GDDR6 VRAM الحالية حوالي 3 دولارات لكل جيجابايت، لذلك يقدر سعر HBM بحوالي 15 دولارًا لكل جيجابايت. تبلغ تكلفة H100 SXM 1500 دولار على HBM.
على الرغم من استمرار سعر HBM في الارتفاع هذا العام، وذهب المديرون التنفيذيون لـ Nvidia وMeta أيضًا إلى Hynix "للإشراف على العمل"، سيتم إنتاج HBM3 من سامسونج تدريجيًا على نطاق واسع وشحنه في النصف الثاني من العام. بحلول العام المقبل لن يكون HBM عنق الزجاجة بعد الآن.
إن عنق الزجاجة الحقيقي هو تعبئة CoWoS الخاصة بشركة TSMC، وهي عملية تعبئة 2.5D. بالمقارنة مع التغليف ثلاثي الأبعاد الذي يقوم مباشرة بثقب الثقوب (TSV) والأسلاك (RDL) على الشريحة، يمكن أن توفر CoWoS تكلفة أفضل، وتبديد الحرارة، وعرض النطاق الترددي للإنتاجية. ويتوافق الأولان مع HBM، والأخيران هما مفتاح وحدة معالجة الرسومات.
لذا، إذا كنت تريد شريحة ذات سعة تخزينية عالية وقدرة حاسوبية عالية، فإن CoWoS هو الحل الوحيد من حيث التغليف. إن حقيقة أن جميع وحدات معالجة الرسومات الأربعة من Nvidia و AMD تستخدم CoWoS هي أفضل دليل.
كم تكلفة CoWoS؟ كشف التقرير المالي لعام 2022 لشركة TSMC أن عملية CoWoS تمثل 7٪ من إجمالي الإيرادات، لذلك قام المحلل الخارجي روبرت كاستيلانو بالحساب بناءً على الطاقة الإنتاجية وحجم القالب الذي يمكن أن يحقق تعبئة شريحة الذكاء الاصطناعي إيرادات لشركة TSMC بقيمة 723 دولارًا. [6] .
لذلك، بجمع عناصر التكلفة الثلاثة الأكبر المذكورة أعلاه، يبلغ الإجمالي حوالي 2500 دولار أمريكي، منها TSMC تمثل حوالي 1000 دولار أمريكي (شريحة منطقية + CoWoS)، وتمثل SK Hynix 1500 دولار أمريكي (ستشارك سامسونج بالتأكيد في المستقبل). ويتم تضمين ثنائي الفينيل متعدد الكلور أيضًا ومواد أخرى، ولا تتجاوز تكلفة المواد الإجمالية 3000 دولار أمريكي.
كم تكلفة H100؟ 35.000 دولار أمريكي، فقط أضف صفرًا، وسيتجاوز إجمالي معدل الربح 90%. في السنوات العشر الماضية، بلغ إجمالي هامش ربح NVIDIA حوالي 60%، والآن، مدفوعًا بإجمالي الربح المرتفع A100/A800/H100، وصل إجمالي هامش ربح NVIDIA إلى 70% في الربع الثاني من هذا العام.
يعد هذا أمرًا غير بديهي بعض الشيء: تعتمد Nvidia بشكل كبير على مسبك TSMC، الذي لا يمكن المساس بوضعه، بل إنه الرابط الأساسي الوحيد الذي يمكنه خنق رقبة Nvidia. ولكن بالنسبة لمثل هذه البطاقة التي تبلغ قيمتها 35000 دولار، فإن شركة TSMC، التي تصنعها، يمكنها الحصول على 1000 دولار فقط، وهذا مجرد إيرادات، وليس ربحًا.
ومع ذلك، فإن استخدام هامش الربح الإجمالي لتحديد الأرباح الضخمة ليس له معنى كبير بالنسبة لشركات الرقائق، وإذا بدأنا من الرمال، فسيكون هامش الربح الإجمالي أعلى. يتم بيع رقاقة مقاس 12 بوصة مصنوعة من تقنية 4N بواسطة TSMC للجميع مقابل ما يقرب من 15000 دولار أمريكي، ومن الطبيعي أن تتمتع NVIDIA بخبرتها في إضافة سعر التجزئة لبيعها للعملاء.
سر الحيلة: إن Nvidia هي في الأساس شركة برمجيات تتنكر في هيئة صانع أجهزة.
خندق يدمج البرامج والأجهزة
أقوى سلاح لدى NVIDIA مخفي في هامش الربح الإجمالي مطروحًا منه هامش الربح الصافي.
قبل هذه الجولة من ازدهار الذكاء الاصطناعي، ظل هامش الربح الإجمالي لشركة Nvidia عند حوالي 65% على مدار العام، في حين كان هامش صافي الربح عادة 30% فقط. في الربع الثاني من هذا العام، مدفوعًا بالهامش المرتفع A100/A800/H100، بلغ إجمالي معدل الربح 70%، وكان معدل الربح الصافي مرتفعًا حتى 45.81%.
في السنوات المالية الثلاث الماضية، هامش الربح الإجمالي وهامش الربح الصافي لـ NVIDIA (NVIDIA) في ربع واحد
يعمل لدى شركة إنفيديا حاليا أكثر من 20 ألف موظف في جميع أنحاء العالم، وأغلبهم من مهندسي البرمجيات والأجهزة الذين يتقاضون رواتب عالية. ووفقا لبيانات من موقع Glassdoor، فإن متوسط الراتب السنوي لهذه الوظائف يزيد في الأساس عن 200 ألف دولار أمريكي سنويا.
معدل نفقات البحث والتطوير في NVIDIA للسنوات المالية العشر الماضية
في السنوات العشر الماضية، حافظت القيمة المطلقة لنفقات البحث والتطوير في Nvidia على نمو سريع، وظلت نسبة نفقات البحث والتطوير أعلى من 20% في حالة مستقرة. وبطبيعة الحال، إذا اندلع الطلب النهائي في سنة معينة، مثل التعلم العميق في عام 2017، والتعدين في عام 2021، ونماذج اللغات الكبيرة هذا العام، فإن قاسم الإيرادات يرتفع فجأة، وسينخفض معدل نفقات البحث والتطوير لفترة وجيزة إلى 20٪. وفي المقابل، ستزداد الأرباح أيضًا بشكل غير خطي.
من بين العديد من المشاريع التي طورتها NVIDIA، فإن المشروع الأكثر أهمية هو بلا شك CUDA.
في عام 2003، من أجل حل مشكلة العتبة العالية لبرمجة DirectX، أطلق فريق إيان باك نموذج برمجة يسمى Brook، والذي كان أيضًا النموذج الأولي لما أطلق عليه الناس فيما بعد CUDA. في عام 2006، انضم باك إلى NVIDIA وأقنع Jen-Hsun Huang بتطوير CUDA. [8] .
نظرًا لأنه يدعم الحوسبة المتوازية في بيئة لغة C، فقد أصبح CUDA الخيار الأول للمهندسين، وقد شرعت وحدة معالجة الرسومات في السير على طريق المعالجات ذات الأغراض العامة (GPGPU).
بعد أن نضج CUDA تدريجيًا، أقنع باك مرة أخرى Huang Renxun بأن جميع وحدات معالجة الرسومات Nvidia في المستقبل يجب أن تدعم CUDA. تأسس مشروع CUDA في عام 2006 وتم إطلاق المنتج في عام 2007. في ذلك الوقت، كانت إيرادات NVIDIA السنوية تبلغ 3 مليارات دولار أمريكي فقط، لكنها أنفقت 500 مليون دولار أمريكي على CUDA، وبحلول عام 2017، تجاوزت نفقات البحث والتطوير على CUDA وحده 10 مليارات.
قال الرئيس التنفيذي لشركة سحابية خاصة ذات مرة في إحدى المقابلات إنهم لم يفكروا في شراء بطاقات AMD، لكن الأمر سيستغرق شهرين على الأقل لتصحيح هذه البطاقات إلى التشغيل العادي. [3] . ومن أجل اختصار هذين الشهرين، استثمرت نفيديا عشرات المليارات واستغرقت 20 عامًا.
لقد شهدت صناعة الرقائق صعودًا وهبوطًا لأكثر من نصف قرن، ولكن لم تكن هناك أبدًا شركة مثل NVIDIA تبيع كلاً من الأجهزة والنظام البيئي، أو على حد تعبير هوانغ رينكسون: "إنها تبيع أنظمة مجردة". ولذلك، فإن هدف Nvidia ليس في الواقع الحكماء في مجال الرقائق، بل Apple، وهي شركة أخرى تبيع الأنظمة.
منذ إطلاق CUDA في عام 2007 لتصبح أكبر مصنع لطباعة النقود في العالم، لم تخلو NVIDIA من المعارضين.
في عام 2008، قطعت إنتل، ملك الرقائق في ذلك الوقت، التعاون مع إنفيديا في مشروع العرض المتكامل وأطلقت معالجها الخاص للأغراض العامة (GPCPU)، بهدف "السيطرة على النهر" في مجال الكمبيوتر الشخصي. ومع ذلك، في السنوات التالية من تكرار المنتج، أصرت إنفيديا على الترويج لمعالجاتها الخاصة في المجالات التي تتطلب قدرات حوسبة أكثر قوة، مثل الفضاء والتمويل والطب الحيوي، لذلك اضطرت إنتل إلى إلغاء خطة بطاقة الرسومات المستقلة في غضون 10 سنوات. لأنها لم تر أي أمل في قمعها.
في عام 2009، أطلق فريق التطوير التابع لشركة Apple برنامج OpenCL، على أمل الحصول على حصة من فطيرة CUDA بفضل تعدد استخداماته. ومع ذلك، فإن OpenCL أدنى بكثير من CUDA في بيئة التعلم العميق، والعديد من أطر التعلم إما تدعم OpenCL بعد إصدار CUDA، أو لا تدعم OpenCL على الإطلاق. ونتيجة لذلك، فإن التأخر في التعلم العميق جعل OpenCL غير قادر على الوصول إلى الشركات ذات القيمة المضافة الأعلى.
وفي عام 2015، بدأت شركة AlphaGo في إظهار بروزها في مجال Go، معلنة قدوم عصر الذكاء الاصطناعي. في هذا الوقت، من أجل اللحاق بالحافلة الأخيرة، قامت Intel بتثبيت وحدة معالجة الرسومات AMD في شريحة النظام الخاصة بها. وهذا هو التعاون الأول بين الشركتين منذ الثمانينات. ولكن الآن القيمة السوقية المجمعة لزعيم وحدة المعالجة المركزية، والرائد الثاني، ورائد GPU هي فقط 1/4 من زعيم GPU Nvidia.
من المنظور الحالي، يكاد يكون من الصعب اختراق خندق Nvidia. على الرغم من أن هناك العديد من العملاء الكبار الذين يقومون سرًا بتطوير وحدات معالجة الرسوميات الخاصة بهم، ولكن مع نظامهم البيئي الضخم والتكرار السريع، فإن هؤلاء العملاء الكبار غير قادرين على فتح الشقوق في الإمبراطورية، وهذا دليل على ذلك. ستستمر أعمال آلات طباعة النقود من NVIDIA في المستقبل المنظور.
ربما يكون المكان الوحيد الذي تطارد فيه السحب السوداء هوانغ رينكسون هو المكان الذي يوجد فيه العديد من العملاء والطلب القوي ولكن لا يمكن بيع H100، لكن الناس يصرون على أسنانهم لمعالجة المشكلة - لا يوجد سوى مكان واحد في العالم.
مراجع
[1] Crunchbase
[2] يقول ماسك: "الجميع وكلابهم يشترون وحدات معالجة الرسوميات" مع ظهور تفاصيل بدء تشغيل الذكاء الاصطناعي لأجهزة توم
[3] وحدات معالجة الرسومات Nvidia H100: أدوات العرض والطلب لوحدة معالجة الرسومات
[4] يؤدي النقص في سلسلة التوريد إلى تأخير طفرة الذكاء الاصطناعي في قطاع التكنولوجيا، FT
[6] تايوان لأشباه الموصلات: تم تقدير قيمتها بأقل من قيمتها بشكل كبير باعتبارها مورد الرقائق والحزم لشركة Nvidia-Robert Castellano، التي تسعى إلى ألفا
[7] حرب الرقائق، يو شنغ
[8] ما هو كودا؟ البرمجة المتوازية لوحدات معالجة الرسومات - مارتن هيلر، InfoWorld
[9] دليل مستخدم نفيديا DGX H100
شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
مجنون H100
** الأصل: وانغ ييتشوان **
** المصدر: ** معهد قائم على السيليكون
في 3 أغسطس 2023، قدمت وول ستريت ووادي السيليكون معًا حدثًا كبيرًا صدم الصناعة: السماح لشركة ناشئة بالحصول على تمويل بالديون بقيمة 2.3 مليار دولار أمريكي، وكان الضمان هو أصعب عملة في بطاقة الرسومات H100 في العالم.
يُدعى بطل هذا الحدث الكبير CoreWeave، وعمله الرئيسي هو الخدمات السحابية الخاصة بالذكاء الاصطناعي. ببساطة، فهو يوفر بنية تحتية للطاقة الحاسوبية للشركات الناشئة في مجال الذكاء الاصطناعي والعملاء التجاريين الكبار من خلال بناء مركز بيانات يحتوي على عدد كبير من قوة الحوسبة الخاصة بوحدة معالجة الرسومات. جمعت CoreWeave إجمالي 580 مليون دولار أمريكي وهي حاليًا في الجولة B بقيمة 2 مليار دولار أمريكي.
تأسست CoreWeave في عام 2016 من قبل ثلاثة من تجار السلع في وول ستريت. في البداية، كان لدى الشركة عمل رئيسي واحد فقط: التعدين، واشترت عددًا كبيرًا من وحدات معالجة الرسوميات لبناء مركز لآلات التعدين، خاصة عندما كانت دائرة العملة في انحسار منخفض، قامت الشركة بتخزين عدد كبير من بطاقات الرسومات لمواجهة التقلبات الدورية، وبالتالي أنشأت صداقة ثورية قوية مع نفيديا.
في عام 2019، بدأت CoreWeave في تحويل آلات التعدين هذه إلى مراكز بيانات على مستوى المؤسسة لتوفير خدمات سحابية تعمل بالذكاء الاصطناعي للعملاء. لم تكن الأعمال فاترة في البداية، ولكن بعد ولادة ChatGPT، أصبح تدريب واستدلال النماذج الكبيرة يستهلك الكثير لقد انطلقت شركة CoreWeave، التي تمتلك بالفعل عشرات الآلاف من بطاقات الرسومات (ليست بالضرورة أحدث طراز)، على عجل، وكان الباب مزدحماً بالعملاء ومستثمري رأس المال الاستثماري.
ولكن ما يجعل الناس يشعرون بالغرابة هو أن CoreWeave لم تجمع سوى ما مجموعه 580 مليون دولار أمريكي، وأن القيمة الصافية لوحدة معالجة الرسومات في الكتاب لن تتجاوز مليار دولار أمريكي، وحتى التقييم الإجمالي للشركة يبلغ 2 مليار دولار أمريكي فقط، ولكن لماذا تستطيع اقتراض 2.3 مليار عن طريق الرهن العقاري، وماذا عن الدولارات؟ ولماذا تعتبر وول ستريت، التي كانت دائماً ماهرة في الحسابات وحريصة على خفض قيمة الضمانات، سخية إلى هذا الحد؟
السبب هو الأرجح: على الرغم من أن CoreWeave لا يحتوي على الكثير من بطاقات الرسومات في الحساب، إلا أنه حصل على التزام بالتوريد من Nvidia، وخاصة H100.
تعد علاقة CoreWeave القوية مع Nvidia بالفعل سرًا مفتوحًا في وادي السيليكون. هذا النوع من المتشددين متجذر في ولاء CoreWeave ودعمها الثابت لـ Nvidia - فقط باستخدام بطاقات Nvidia، وعدم تصنيع النوى الخاصة بها، ومساعدة Nvidia في تخزين البطاقات عندما لا يمكن بيع بطاقات الرسومات. بالنسبة لهوانغ رينكسون، فإن المحتوى الذهبي لهذه العلاقة يتجاوز بكثير تلك الصداقات البلاستيكية مع مايكروسوفت وجوجل وتيسلا.
لذلك، وعلى الرغم من النقص في Nvidia H100، فقد خصصت Nvidia عددًا كبيرًا من البطاقات الجديدة لـ CoreWeave، حتى على حساب الحد من التوريد إلى الشركات المصنعة الكبرى مثل Amazon وGoogle. وأشاد هوانغ رينكسون خلال المؤتمر الهاتفي قائلاً: "ستظهر مجموعة جديدة من موفري الخدمات السحابية لوحدة معالجة الرسومات، وأشهرهم CoreWeave. إنهم في حالة جيدة جدًا."
وقبل أسبوع من الاستثمار البالغ 2.3 مليار دولار، أعلنت شركة CoreWeave أنها ستنفق 1.6 مليار دولار لبناء مركز بيانات مساحته 42 ألف متر مربع في تكساس. بالاعتماد فقط على علاقتها مع Nvidia وحقوق التوزيع ذات الأولوية، تستطيع CoreWeave اقتراض الأموال لبناء مركز بيانات من البنوك - وهذا النموذج يذكرنا بمطوري العقارات الذين يسعون على الفور للحصول على قروض مصرفية بعد الحصول على الأرض.
لذلك يمكن القول أن التزام العرض الحالي بقيمة H100 يمكن مقارنته بوثيقة الموافقة على الأراضي في العصر الذهبي للعقارات.
H100 هي بطاقة يصعب العثور عليها
وفي مقابلة أجريت معه في أبريل من هذا العام، اشتكى ماسك [2] : "يبدو أنه حتى الكلاب تشتري وحدات معالجة الرسومات الآن."
ومن المفارقات أن Tesla أصدرت شريحة D1 التي طورتها بنفسها في وقت مبكر من عام 2021، والتي تم تصنيعها بواسطة TSMC واعتمدت عملية 7 نانومتر، مدعية أنها قادرة على استبدال A100 السائد في Nvidia في ذلك الوقت. ولكن بعد مرور عامين، أطلقت Nvidia جهاز H100 الأقوى، ولم يكن لدى Tesla D1 أي تكرار للمتابعة، لذلك عندما حاول " ماسك " تشكيل شركة ذكاء اصطناعي خاصة به، كان لا يزال يتعين عليه الركوع مطيعًا أمام باب السيد " هوانغ " و التسول للحصول على بطاقة.
تم إطلاق H100 رسميًا في 20 سبتمبر من العام الماضي، وتم تصنيعه بواسطة عملية TSMC's 4N. بالمقارنة مع سابقتها A100، تعمل البطاقة الفردية H100 على تحسين سرعة الاستدلال بمقدار 3.5 مرة وسرعة التدريب بمقدار 2.3 مرة، وإذا تم استخدام طريقة الحوسبة العنقودية للخادم، فيمكن زيادة سرعة التدريب إلى 9 مرات.عبء العمل الأصلي لمدة أسبوع واحد الآن يستغرق الأمر 20 ساعة فقط.
بالمقارنة مع A100، فإن سعر بطاقة واحدة من H100 أكثر تكلفة، حوالي 1.5 إلى 2 أضعاف سعر A100، ولكن كفاءة تدريب النماذج الكبيرة زادت بنسبة 200%، وبالتالي فإن "الأداء لكل دولار" أعلى . إذا تم إقرانه مع أحدث حلول نظام الاتصال عالي السرعة من Nvidia، فقد يكون أداء وحدة معالجة الرسومات لكل دولار أعلى بمقدار 4-5 مرات، لذلك يسعى العملاء بشدة للحصول عليه.
ينقسم العملاء الذين يسارعون لشراء H100 إلى ثلاث فئات:
الفئة الأولى هي عمالقة الحوسبة السحابية الشاملة، مثل Microsoft Azure وGoogle GCP وAmazon AWS. سماتهم هي أن لديهم جيوبًا عميقة ويريدون "تغطية" الطاقة الإنتاجية لشركة Nvidia في كل منعطف، ومع ذلك، فإن كل شركة لديها أيضًا أجندات مخفية، فهم غير راضين عن وضع Nvidia شبه الاحتكاري ويقومون سرًا بتطوير رقائقهم الخاصة لتقليل التكاليف.
الفئة الثانية هي مقدمو خدمات GPU السحابية المستقلون، وتشمل الشركات النموذجية CoreWeave وLambda وRunPod وما إلى ذلك المذكورة أعلاه. يتمتع هذا النوع من الشركات بقدرة حاسوبية صغيرة نسبيًا، ولكنه يمكنه تقديم خدمات مختلفة. تدعم Nvidia أيضًا هذا النوع من الشركات بقوة، بل وتستثمر بشكل مباشر في CoreWeave وLambda. والغرض واضح جدًا: تقديم الخدمات لأولئك العمالقة الذين يقومون ببناء النوى. بشكل خاص، ضع قطرات للعين.
الفئة الثالثة هي الشركات الكبيرة والصغيرة التي تقوم بتدريب LLM (نموذج اللغة الكبيرة) بنفسها. وهي تشمل شركات ناشئة مثل Anthropic، وInflection، وMidjourney، بالإضافة إلى عمالقة التكنولوجيا مثل Apple، وTesla، وMeta. وعادة ما يستخدمون القوة الحاسوبية لمقدمي الخدمات السحابية الخارجية أثناء شراء وحدات معالجة الرسومات الخاصة بهم لبناء مواقدهم الخاصة - أولئك الذين لديهم المال يشترون أكثر، وأولئك الذين ليس لديهم المال يشترون أقل، والهدف الرئيسي هو السماح للناس بأن يصبحوا أغنياء ومقتصدين.
من بين هذه الأنواع الثلاثة من العملاء، تمتلك مايكروسوفت أزور ما لا يقل عن 50 ألف نسخة من H100، وجوجل لديها حوالي 30 ألف نسخة من H100، وأوراكل لديها حوالي 20 ألف نسخة، وتيسلا وأمازون لديها أيضا ما لا يقل عن 10 آلاف نسخة. ويقال إن شركة CoreWeave ملتزمة ببيع 35 ألف نسخة (التسليم الفعلي هو حوالي 10.000). عدد قليل من الشركات الأخرى لديها أكثر من 10000 تذكرة.
كم عدد H100s التي تحتاجها هذه الأنواع الثلاثة من العملاء إجمالاً؟ وفقًا لتوقعات منظمة GPU Utils الخارجية، يبلغ الطلب الحالي على H100 حوالي 432,000. من بينها، يتطلب OpenAI 50000 صورة لتدريب GPT-5، ويتطلب Inflection 22000 صورة، ويتطلب Meta 25000 صورة (يقول البعض 100000 صورة). ويتطلب كل من بائعي السحابة العامة الأربعة الرئيسيين ما لا يقل عن 30000 صورة. صناعة السحابة الخاصة هي 100000 قطعة، كما أن الشركات المصنعة للنماذج الصغيرة الأخرى لديها أيضًا طلب يصل إلى 100000 قطعة. [3] .
ستبلغ شحنات Nvidia H100 حوالي 500000 وحدة في عام 2023. حاليًا، لا تزال الطاقة الإنتاجية لشركة TSMC في ارتفاع، وبحلول نهاية العام، سيتم تخفيف الوضع الصعب لبطاقات H100.
ولكن على المدى الطويل، ستستمر الفجوة بين العرض والطلب على H100 في الاتساع مع ظهور تطبيقات AIGC. وفقًا لتقرير صحيفة فاينانشيال تايمز، فإن حجم شحنات H100 سيصل إلى 1.5 مليون إلى 2 مليون في عام 2024، وهو أعلى بمقدار 3-4 مرات من 500000 هذا العام. [4] .
بل إن توقعات وول ستريت أكثر تطرفًا: يعتقد بنك الاستثمار الأمريكي بايبر ساندلر أن إيرادات مركز بيانات Nvidia ستتجاوز 60 مليار دولار أمريكي في العام المقبل (الربع المالي 24: 10.32 مليار دولار أمريكي). وبناءً على هذه البيانات، يقترب حجم شحن بطاقات A+H من 3 مليون نسخة.
وهناك تقديرات أكثر مبالغ فيها. يقوم أكبر مسبك لخوادم H100 (بحصة سوقية تبلغ 70%-80%) بشحن خوادم H100 منذ يونيو من هذا العام، وزادت طاقته الإنتاجية تدريجيًا في يوليو. وأظهر استطلاع حديث أن المسبك يعتقد أن حجم شحن بطاقات A+H في عام 2024 سيتراوح بين 4.5 مليون و5 ملايين.
وهذا يعني "الثروة والثروة" لشركة NVIDIA، لأن درجة الأرباح الضخمة لـ H100 لا يمكن تصورها بالنسبة للأشخاص في الصناعات الأخرى.
بطاقات الرسومات أغلى من الذهب
من أجل معرفة مدى ربحية H100، يمكننا أيضًا تفكيك قائمة المواد (BOM) الخاصة بها بالكامل.
كما هو موضح في الشكل، يستخدم الإصدار الأكثر تنوعًا من H100، H100 SXM، حزمة CoWoS 7-die من TSMC، ويتم ترتيب ست شرائح 16G HBM3 في صفين يحيطان بشكل وثيق بالشريحة المنطقية الوسطى.
ويشكل هذا أيضًا الأجزاء الثلاثة الأكثر أهمية في H100: شريحة المنطق، ورقاقة ذاكرة HBM، وحزمة CoWoS، بالإضافة إلى ذلك، هناك أيضًا بعض المكونات المساعدة مثل لوحات PCB والمكونات المساعدة الأخرى، لكن قيمتها ليست عالية.
يبلغ حجم الشريحة المنطقية الأساسية 814 مم^2، ويتم إنتاجها في المصنع رقم 18 الأكثر تقدمًا لشركة TSMC في تاينان، وعقدة العملية المستخدمة هي "4N"، على الرغم من أن الاسم يبدأ بالرقم 4، إلا أنه في الواقع 5nm+. ونظرًا لضعف الازدهار في مجالات تصنيع 5 نانومتر، مثل الهواتف المحمولة، فإن TSMC ليس لديها مشكلة في ضمان توريد الرقائق المنطقية.
يتم إنتاج هذه الشريحة المنطقية عن طريق قطع رقاقة بقياس 12 بوصة (مساحة 70,695 ملم^2). في ظل الظروف المثالية، يمكن قطع 86 قطعة. ومع ذلك، مع الأخذ في الاعتبار معدل العائد 80% وخسارة القطع لخط "4N"، فإن آخر واحد يمكن قطع 65 شريحة منطقية فقط من رقاقة مقاس 12 بوصة.
كم تبلغ تكلفة شريحة المنطق الأساسية هذه؟ يبلغ سعر TSMC لعام 2023 للرقاقة مقاس 12 بوصة 13400 دولارًا أمريكيًا، لذا يبلغ سعر الرقاقة الواحدة حوالي 200 دولار أمريكي.
التالي هو 6 شرائح HBM3، والتي يتم توفيرها حاليًا حصريًا من قبل SK Hynix. نشأت هذه الشركة من الإلكترونيات الحديثة. في عام 2002، التزمت تقريبًا بشركة Micron. إنها تتقدم على Micron بما لا يقل عن 3 سنوات من حيث تكنولوجيا الإنتاج الضخم (Micron هي عالق في HBM2e وستعمل Hynix على إنتاجه بكميات كبيرة في منتصف عام 2020).
يظل السعر المحدد لـ HBM سرًا، ولكن وفقًا لوسائل الإعلام الكورية، فإن HBM يبلغ حاليًا 5-6 أضعاف سعر منتجات DRAM الحالية. يبلغ سعر ذاكرة GDDR6 VRAM الحالية حوالي 3 دولارات لكل جيجابايت، لذلك يقدر سعر HBM بحوالي 15 دولارًا لكل جيجابايت. تبلغ تكلفة H100 SXM 1500 دولار على HBM.
على الرغم من استمرار سعر HBM في الارتفاع هذا العام، وذهب المديرون التنفيذيون لـ Nvidia وMeta أيضًا إلى Hynix "للإشراف على العمل"، سيتم إنتاج HBM3 من سامسونج تدريجيًا على نطاق واسع وشحنه في النصف الثاني من العام. بحلول العام المقبل لن يكون HBM عنق الزجاجة بعد الآن.
إن عنق الزجاجة الحقيقي هو تعبئة CoWoS الخاصة بشركة TSMC، وهي عملية تعبئة 2.5D. بالمقارنة مع التغليف ثلاثي الأبعاد الذي يقوم مباشرة بثقب الثقوب (TSV) والأسلاك (RDL) على الشريحة، يمكن أن توفر CoWoS تكلفة أفضل، وتبديد الحرارة، وعرض النطاق الترددي للإنتاجية. ويتوافق الأولان مع HBM، والأخيران هما مفتاح وحدة معالجة الرسومات.
لذا، إذا كنت تريد شريحة ذات سعة تخزينية عالية وقدرة حاسوبية عالية، فإن CoWoS هو الحل الوحيد من حيث التغليف. إن حقيقة أن جميع وحدات معالجة الرسومات الأربعة من Nvidia و AMD تستخدم CoWoS هي أفضل دليل.
كم تكلفة CoWoS؟ كشف التقرير المالي لعام 2022 لشركة TSMC أن عملية CoWoS تمثل 7٪ من إجمالي الإيرادات، لذلك قام المحلل الخارجي روبرت كاستيلانو بالحساب بناءً على الطاقة الإنتاجية وحجم القالب الذي يمكن أن يحقق تعبئة شريحة الذكاء الاصطناعي إيرادات لشركة TSMC بقيمة 723 دولارًا. [6] .
لذلك، بجمع عناصر التكلفة الثلاثة الأكبر المذكورة أعلاه، يبلغ الإجمالي حوالي 2500 دولار أمريكي، منها TSMC تمثل حوالي 1000 دولار أمريكي (شريحة منطقية + CoWoS)، وتمثل SK Hynix 1500 دولار أمريكي (ستشارك سامسونج بالتأكيد في المستقبل). ويتم تضمين ثنائي الفينيل متعدد الكلور أيضًا ومواد أخرى، ولا تتجاوز تكلفة المواد الإجمالية 3000 دولار أمريكي.
كم تكلفة H100؟ 35.000 دولار أمريكي، فقط أضف صفرًا، وسيتجاوز إجمالي معدل الربح 90%. في السنوات العشر الماضية، بلغ إجمالي هامش ربح NVIDIA حوالي 60%، والآن، مدفوعًا بإجمالي الربح المرتفع A100/A800/H100، وصل إجمالي هامش ربح NVIDIA إلى 70% في الربع الثاني من هذا العام.
يعد هذا أمرًا غير بديهي بعض الشيء: تعتمد Nvidia بشكل كبير على مسبك TSMC، الذي لا يمكن المساس بوضعه، بل إنه الرابط الأساسي الوحيد الذي يمكنه خنق رقبة Nvidia. ولكن بالنسبة لمثل هذه البطاقة التي تبلغ قيمتها 35000 دولار، فإن شركة TSMC، التي تصنعها، يمكنها الحصول على 1000 دولار فقط، وهذا مجرد إيرادات، وليس ربحًا.
ومع ذلك، فإن استخدام هامش الربح الإجمالي لتحديد الأرباح الضخمة ليس له معنى كبير بالنسبة لشركات الرقائق، وإذا بدأنا من الرمال، فسيكون هامش الربح الإجمالي أعلى. يتم بيع رقاقة مقاس 12 بوصة مصنوعة من تقنية 4N بواسطة TSMC للجميع مقابل ما يقرب من 15000 دولار أمريكي، ومن الطبيعي أن تتمتع NVIDIA بخبرتها في إضافة سعر التجزئة لبيعها للعملاء.
سر الحيلة: إن Nvidia هي في الأساس شركة برمجيات تتنكر في هيئة صانع أجهزة.
خندق يدمج البرامج والأجهزة
أقوى سلاح لدى NVIDIA مخفي في هامش الربح الإجمالي مطروحًا منه هامش الربح الصافي.
قبل هذه الجولة من ازدهار الذكاء الاصطناعي، ظل هامش الربح الإجمالي لشركة Nvidia عند حوالي 65% على مدار العام، في حين كان هامش صافي الربح عادة 30% فقط. في الربع الثاني من هذا العام، مدفوعًا بالهامش المرتفع A100/A800/H100، بلغ إجمالي معدل الربح 70%، وكان معدل الربح الصافي مرتفعًا حتى 45.81%.
يعمل لدى شركة إنفيديا حاليا أكثر من 20 ألف موظف في جميع أنحاء العالم، وأغلبهم من مهندسي البرمجيات والأجهزة الذين يتقاضون رواتب عالية. ووفقا لبيانات من موقع Glassdoor، فإن متوسط الراتب السنوي لهذه الوظائف يزيد في الأساس عن 200 ألف دولار أمريكي سنويا.
في السنوات العشر الماضية، حافظت القيمة المطلقة لنفقات البحث والتطوير في Nvidia على نمو سريع، وظلت نسبة نفقات البحث والتطوير أعلى من 20% في حالة مستقرة. وبطبيعة الحال، إذا اندلع الطلب النهائي في سنة معينة، مثل التعلم العميق في عام 2017، والتعدين في عام 2021، ونماذج اللغات الكبيرة هذا العام، فإن قاسم الإيرادات يرتفع فجأة، وسينخفض معدل نفقات البحث والتطوير لفترة وجيزة إلى 20٪. وفي المقابل، ستزداد الأرباح أيضًا بشكل غير خطي.
من بين العديد من المشاريع التي طورتها NVIDIA، فإن المشروع الأكثر أهمية هو بلا شك CUDA.
في عام 2003، من أجل حل مشكلة العتبة العالية لبرمجة DirectX، أطلق فريق إيان باك نموذج برمجة يسمى Brook، والذي كان أيضًا النموذج الأولي لما أطلق عليه الناس فيما بعد CUDA. في عام 2006، انضم باك إلى NVIDIA وأقنع Jen-Hsun Huang بتطوير CUDA. [8] .
نظرًا لأنه يدعم الحوسبة المتوازية في بيئة لغة C، فقد أصبح CUDA الخيار الأول للمهندسين، وقد شرعت وحدة معالجة الرسومات في السير على طريق المعالجات ذات الأغراض العامة (GPGPU).
بعد أن نضج CUDA تدريجيًا، أقنع باك مرة أخرى Huang Renxun بأن جميع وحدات معالجة الرسومات Nvidia في المستقبل يجب أن تدعم CUDA. تأسس مشروع CUDA في عام 2006 وتم إطلاق المنتج في عام 2007. في ذلك الوقت، كانت إيرادات NVIDIA السنوية تبلغ 3 مليارات دولار أمريكي فقط، لكنها أنفقت 500 مليون دولار أمريكي على CUDA، وبحلول عام 2017، تجاوزت نفقات البحث والتطوير على CUDA وحده 10 مليارات.
قال الرئيس التنفيذي لشركة سحابية خاصة ذات مرة في إحدى المقابلات إنهم لم يفكروا في شراء بطاقات AMD، لكن الأمر سيستغرق شهرين على الأقل لتصحيح هذه البطاقات إلى التشغيل العادي. [3] . ومن أجل اختصار هذين الشهرين، استثمرت نفيديا عشرات المليارات واستغرقت 20 عامًا.
لقد شهدت صناعة الرقائق صعودًا وهبوطًا لأكثر من نصف قرن، ولكن لم تكن هناك أبدًا شركة مثل NVIDIA تبيع كلاً من الأجهزة والنظام البيئي، أو على حد تعبير هوانغ رينكسون: "إنها تبيع أنظمة مجردة". ولذلك، فإن هدف Nvidia ليس في الواقع الحكماء في مجال الرقائق، بل Apple، وهي شركة أخرى تبيع الأنظمة.
منذ إطلاق CUDA في عام 2007 لتصبح أكبر مصنع لطباعة النقود في العالم، لم تخلو NVIDIA من المعارضين.
في عام 2008، قطعت إنتل، ملك الرقائق في ذلك الوقت، التعاون مع إنفيديا في مشروع العرض المتكامل وأطلقت معالجها الخاص للأغراض العامة (GPCPU)، بهدف "السيطرة على النهر" في مجال الكمبيوتر الشخصي. ومع ذلك، في السنوات التالية من تكرار المنتج، أصرت إنفيديا على الترويج لمعالجاتها الخاصة في المجالات التي تتطلب قدرات حوسبة أكثر قوة، مثل الفضاء والتمويل والطب الحيوي، لذلك اضطرت إنتل إلى إلغاء خطة بطاقة الرسومات المستقلة في غضون 10 سنوات. لأنها لم تر أي أمل في قمعها.
في عام 2009، أطلق فريق التطوير التابع لشركة Apple برنامج OpenCL، على أمل الحصول على حصة من فطيرة CUDA بفضل تعدد استخداماته. ومع ذلك، فإن OpenCL أدنى بكثير من CUDA في بيئة التعلم العميق، والعديد من أطر التعلم إما تدعم OpenCL بعد إصدار CUDA، أو لا تدعم OpenCL على الإطلاق. ونتيجة لذلك، فإن التأخر في التعلم العميق جعل OpenCL غير قادر على الوصول إلى الشركات ذات القيمة المضافة الأعلى.
وفي عام 2015، بدأت شركة AlphaGo في إظهار بروزها في مجال Go، معلنة قدوم عصر الذكاء الاصطناعي. في هذا الوقت، من أجل اللحاق بالحافلة الأخيرة، قامت Intel بتثبيت وحدة معالجة الرسومات AMD في شريحة النظام الخاصة بها. وهذا هو التعاون الأول بين الشركتين منذ الثمانينات. ولكن الآن القيمة السوقية المجمعة لزعيم وحدة المعالجة المركزية، والرائد الثاني، ورائد GPU هي فقط 1/4 من زعيم GPU Nvidia.
من المنظور الحالي، يكاد يكون من الصعب اختراق خندق Nvidia. على الرغم من أن هناك العديد من العملاء الكبار الذين يقومون سرًا بتطوير وحدات معالجة الرسوميات الخاصة بهم، ولكن مع نظامهم البيئي الضخم والتكرار السريع، فإن هؤلاء العملاء الكبار غير قادرين على فتح الشقوق في الإمبراطورية، وهذا دليل على ذلك. ستستمر أعمال آلات طباعة النقود من NVIDIA في المستقبل المنظور.
ربما يكون المكان الوحيد الذي تطارد فيه السحب السوداء هوانغ رينكسون هو المكان الذي يوجد فيه العديد من العملاء والطلب القوي ولكن لا يمكن بيع H100، لكن الناس يصرون على أسنانهم لمعالجة المشكلة - لا يوجد سوى مكان واحد في العالم.
مراجع
[1] Crunchbase
[2] يقول ماسك: "الجميع وكلابهم يشترون وحدات معالجة الرسوميات" مع ظهور تفاصيل بدء تشغيل الذكاء الاصطناعي لأجهزة توم
[3] وحدات معالجة الرسومات Nvidia H100: أدوات العرض والطلب لوحدة معالجة الرسومات
[4] يؤدي النقص في سلسلة التوريد إلى تأخير طفرة الذكاء الاصطناعي في قطاع التكنولوجيا، FT
[5] قيود قدرات الذكاء الاصطناعي - سلسلة التوريد CoWoS وHBM-DYLAN PATEL، وMYRON XIE، وGERALD WONG، التحليل النصفي
[6] تايوان لأشباه الموصلات: تم تقدير قيمتها بأقل من قيمتها بشكل كبير باعتبارها مورد الرقائق والحزم لشركة Nvidia-Robert Castellano، التي تسعى إلى ألفا
[7] حرب الرقائق، يو شنغ
[8] ما هو كودا؟ البرمجة المتوازية لوحدات معالجة الرسومات - مارتن هيلر، InfoWorld
[9] دليل مستخدم نفيديا DGX H100