لا تبالغ في تقدير إنفيديا لا تستهين بـ DeepSeek

ديبسيك-فور أخيرًا هنا.

في 24 أبريل، تم إطلاق نسخة المعاينة من سلسلة النماذج الجديدة ديبسيك-فور، وتم فتح المصدر بشكل متزامن.

ديبسيك-فور أطلق آلية انتباه جديدة تمامًا، تقوم بالضغط على بعد التوكن، وتدمج مع انتباه DSA النادر (DeepSeek Sparse Attention)، مما حقق قدرة سياق طويلة رائدة عالميًا، وبالمقارنة مع الطرق التقليدية، قلل بشكل كبير من متطلبات الحساب وذاكرة الفيديو.

لا تستهين بذلك، ديبسيك-فور يقلل بشكل كبير من متطلبات الحساب وذاكرة الفيديو.

تعتقد شركة ميود投 أن هذا سيضعف بشكل مباشر ميزة بطاقات GPU من إنفيديا. ومن الجدير بالذكر أن ديبسيك-فور يولي أولوية التوافق مع الشركات المصنعة للرقائق المحلية.

بعبارة أخرى، لا تبالغ في تقدير الحصن المنيع لإنفيديا، ولا تقلل من شأن الثورة المعمارية التي يثيرها ديبسيك-فور. الأمر لا يتعلق بـ “من يستبدل من”، بل بتوزيع أرباح سلسلة صناعة الذكاء الاصطناعي، ومسارات النشر، والمنطق الاستثماري، التي قد تتغير.

الرقص مع “قيود”

على مدى العامين الماضيين، كانت نماذج الذكاء الاصطناعي الكبيرة تركز بشكل رئيسي على التدريب، وتتنافس على القدرة الحاسوبية.

إلى حد ما، فإن المنافسة على النماذج الأساسية للذكاء الاصطناعي، جوهرها هو البنية التحتية لقدرات الحوسبة على بطاقات GPU. من يستطيع شراء المزيد من بطاقات GPU عالية الجودة، ومن يستطيع تكوين تجمعات أكبر، فله فرصة أكبر لبناء نماذج أساسية أقوى.

ومع ذلك، بسبب قيود التصدير الأمريكية، تم حظر مبيعات رقائق H100/H200 من إنفيديا إلى الصين. بالإضافة إلى ذلك، تم إيقاف عمليات التصنيع المتقدمة لشركة تايوان لصناعة أشباه الموصلات، ولا تزال بطاقات GPU المحلية تتخلف عن بطاقات إنفيديا بشكل معين.

“الشركات المحلية لصناعة GPU تتنافس مع إنفيديا وهي مقيدة بقيود”، هكذا وصف أحد مسؤولي شركات GPU لمود投.

المثير للاهتمام هو أنه، في ظل هذه الظروف المعاكسة، بدأ الفارق بين نماذج الذكاء الاصطناعي الأمريكية والصينية يتقلص تدريجيًا، بل وأصبح قريبًا من التساوي.

بحلول نهاية 2023، كانت الفجوة بين النماذج الرائدة في الصين وأمريكا لا تزال تتراوح بين 20%-30% على مختلف المقاييس. وفي 14 أبريل، أصدر مختبر HAI بجامعة ستانفورد تقرير “مؤشر الذكاء الاصطناعي 2026”، وهو تقرير صناعي موثوق يتكون من 423 صفحة، أظهر أن الفارق في أداء النماذج الكبيرة بين الصين وأمريكا قد تقلص إلى 2.7%، وتحقيق تقارب تقني أساسي.

تعتقد شركة ميود投 أنه إذا نظرنا إلى الفارق في أداء نماذج الذكاء الاصطناعي بين الصين وأمريكا كنتيجة، فإن بطاقة GPU من إنفيديا ليست العامل الحاسم.

ويرجع ذلك جزئيًا إلى صعود الرقائق المحلية في الصين، وتكامل البنية التحتية للطاقة في الصين.

قال هوان رونغشون في مقابلة حديثة: “الذكاء الاصطناعي هو في جوهره مسألة حوسبة موازية، والصين يمكنها تمامًا أن تعوض فجوة التصنيع في رقائقها من خلال تكديس المزيد من الرقائق، فهناك طاقة كافية، وإذا رغبت، يمكنها تجميع المزيد من الرقائق معًا، حتى لو كانت عملية التصنيع أقدم بعدة نانومترات.”

في الواقع، أنشأت العديد من الشركات المحلية لصناعة GPU تجمعات من عشرات الآلاف من البطاقات، لتعويض ضعف القدرة الحسابية للبطاقة الواحدة. مثل: تجمعات بطاقات موور “Kua E” من شركة موور، وتجمع “Xiyuan No.1 SADA” من شركة MuXi.

من ناحية أخرى، يرجع ذلك إلى تميز الشركات الكبرى في نماذج الذكاء الاصطناعي، مثل ديبسيك، التي برزت بشكل لافت.

ديبسيك يستخدم تصميمات متقدمة على مستوى البرمجيات، ويعمل بنشاط على التوافق مع الأجهزة المحلية، ويمهد الطريق للرقائق المحلية.

على سبيل المثال: ديبسيك-فور تحقق من قابلية استخدام FP8 في تدريب النماذج الكبيرة، وتوسيع حجم التدريب دون زيادة التكاليف الإضافية، ودون التأثير على جودة التدريب.

كمثال، في الماضي، كان يتطلب إكمال مهمة حسابية معقدة في الذكاء الاصطناعي عدة آلات ألمانية غالية ودقيقة (تمثل بطاقات إنفيديا عالية الدقة). والآن، من خلال تغيير عملية المعالجة (أي تغيير تنسيق البيانات)، يمكن إنجاز المهمة بكفاءة باستخدام عشرات الآلات الصغيرة والبسيطة والرخيصة (تمثل وحدات الحوسبة للبطاقات المحلية).

ومع ذلك، لا تزال بطاقات إنفيديا تتفوق في تدريب النماذج الكبيرة على مستوى الصناعة.

لكن، من منظور تطور الصناعة، فإن تدريب النماذج الكبيرة هو المرحلة الأولى فقط. بعد إنتاج النموذج، العامل الحاسم في تسريع التبني التجاري وعمق الانتشار هو الاستدلال. خاصة بعد ظهور وكلاء مثل Openclaw وHermes.

إنفيديا فازت في التدريب، لكن الاستدلال هو البداية الحقيقية

التدريب والاستدلال هما نمطان مختلفان.

انفجار وكلاء Claw، والذاكرة طويلة المدى هو العامل الحاسم.

كانت الذكاء الاصطناعي السابق يقتصر على الدردشة، ثم ينسى بسرعة، كأنه سمكة؛ لكن Claw يمكنه تذكر كل شيء، ويواصل العمل، ويصبح أكثر فهمًا لك مع الاستخدام، مما يحولها من “لعبة” إلى “أداة”.

عندما يصبح السياق أطول، وذاكرة الوكيل أعمق، وتكرار استدعاء الأدوات أكثر، فإن ذاكرة الفيديو (KV cache) ستتعب من استيعاب البيانات، وسيتدهور جودة استنتاج النموذج الكبير.

لذا، فإن أول عائق في انفجار الاستدلال ليس هو القدرة الحسابية، بل “الذاكرة” و”الحساب” يتنافسان على نفس مساحة الذاكرة.

بالنسبة لبطاقات GPU المحلية، القدرة الحسابية (TFLOPS الذروية) ليست أكبر عائق، بل الذاكرة. وإنفيديا تتفوق على الشركات الأخرى في تقنية الذاكرة بفارق 1-2 أجيال.

عادةً، تكون سعة ذاكرة بطاقة مركز البيانات من إنفيديا (مثل A100، H100) 80 جيجابايت، بينما أحدث جيل من بطاقات Rubin مزود بـ8 وحدات من ذاكرة HBM4 بسعة 36 جيجابايت لكل منها (إجمالي 288 جيجابايت)، مع عرض نطاق ترددي للذاكرة يصل إلى 13 تيرابايت/ثانية.

أما الرقائق المحلية، فهي محدودة بسبب التصنيع المتقدم، وسعة الذاكرة وعرض النطاق أقل، ولا تزال بحاجة إلى كسر الحصار. مثل: ذاكرة بطاقة Ascend 910B بسعة 64 جيجابايت.

وفقًا للأبحاث التي نشرها ليانغ ونفنغ سابقًا، يُعتقد أن ديبسيك-فور يستخدم بنية فريدة من نوعها تسمى Engram، والتي تحل مشكلة قيود سعة الذاكرة.

طريقة ديبسيك-فور هي استخراج المعرفة “الثابتة” المخزنة في النموذج، وتخزينها في جدول ذاكرة ضخم؛ وعند الاستدلال، يتولى المعالج المركزي “الاستعلام عن القاموس” (استرجاع المعرفة)، وتقوم وحدة المعالجة الرسومية فقط بالحسابات المنطقية (الاستنتاج).

يتم تنفيذ هذين الأمرين بشكل متزامن تمامًا. عندما يحسب GPU منطق كلمة معينة، يكون المعالج المركزي قد نقل المعرفة اللازمة للكلمة التالية إلى الباب. وبفضل تقليل التأخير من خلال هذا الهيكل المتوازي، تتضاعف كفاءة الإنتاج في وحدة الزمن، ولا تتعرض ذاكرة GPU لضغط KV cache.

على سبيل المثال: مهمة استدلال طويلة السياق تتطلب 80 جيجابايت من الذاكرة، لكن في بنية Engram، قد تحتاج فقط إلى 8 جيجابايت.

وهذا يعني أن بطاقات GPU المحلية، حتى مع محدودية الذاكرة، يمكنها إتمام نفس المهمة، بينما تواجه ذاكرة HBM التي تفخر بها إنفيديا انهيارًا محتملًا. وفي الوقت نفسه، ستشهد وحدة المعالجة المركزية انفجارًا في الأداء.

بالإضافة إلى ذلك، الأهم هو أن ديبسيك-فور على وشك الإطلاق، وهذه المرة لم تمنح إنفيديا حق الاختبار المبكر، وتركته بالكامل لشركة هواوي وكاموي، بهدف الانتقال من بيئة CUDA إلى إطار عمل CANN الخاص بهواوي.

على الرغم من أن بيئة CUDA لن تُستبدل على المدى القصير، إلا أن هناك تصدعات بدأت تظهر. وهذا يعني أن ديبسيك-فور، سواء في البيئة المفتوحة أو في الاعتماد على الذات، لا تزال تحتفظ بموقع قوي.

وفقًا للتقارير الإعلامية، ولتلبية الطلب على خدمات السحابة المبنية على النموذج، قامت شركات تكنولوجيا كبرى مثل علي بابا، ByteDance، Tencent بطلب مسبق لرقائق الذكاء الاصطناعي الجديدة من هواوي، بعدد يصل إلى مئات الآلاف من الوحدات.

ومن المتوقع أن يضيف إصدار ديبسيك-فور القادم أفقًا جديدًا للاستثمار في الذكاء الاصطناعي.

آفاق استثمارية جديدة

من وجهة نظر استثمارية، تعتقد شركة ميود投 أن ديبسيك-فور ستفيد بشكل مباشر اتجاهين رئيسيين: القدرة الحاسوبية المحلية وتطبيقات الذكاء الاصطناعي.

1. القدرة الحاسوبية المحلية

إذا ثبت أن ديبسيك-فور مبني بالكامل على القدرة الحاسوبية المحلية، فسيكون ذلك “لحظة ديبسيك” في تاريخ الرقائق المحلية. هذا يثبت أنه حتى بدون H100، يمكننا تشغيل نماذج كبيرة من الطراز العالمي.

وهذا التغيير الهام يتجاوز التوقعات بشكل كبير، وهو لا يقل عن تدريب جوجل لنموذج Gemini باستخدام شرائح TPU الخاصة بها. ويجب أن نعرف أن جوجل أصبحت الآن من ضمن ممتلكات بيركشاير، التي يملكها وارن بافيت.

سابقًا، كانت التوقعات حول القدرة الحاسوبية المحلية تركز على “التحكم الذاتي والسيطرة”، لكن V4 ستنقل المنطق إلى “السهولة والضرورة” في الأعمال التجارية.

وأكبر المستفيدين من ذلك هم الشركات المصنعة للبطاقات المحلية. لقد أعلنت هواوي وكاموي عن ذلك بوضوح. كما أن الشركات الأخرى ستعمل على التوافق مع نماذج ديبسيك. من حيث اليقين، فإن الشركات الصينية مثل هواوي وكاموي، وموردي الخوادم المحلية، والموردين المرتبطين، هم الأكثر استفادة.

وبنظرة مستقبلية حتى 2026، تتوقع شركات الأبحاث أن تزداد إيرادات شركات الذكاء الاصطناعي المدرجة مثل كاموي، وبيير رن، وتينشو زيشين بنسبة 120% تقريبًا، لتصل إلى حوالي 25.7 مليار يوان.

بالإضافة إلى ذلك، من ناحية المرونة، تتوقع شركة MuXi أن تتحول إلى الربحية بحلول 2026، مما يجعلها شركة ربحية أخرى بعد كاموي، وتحقق دورة تجارية مغلقة.

لذا، فإن القدرة الحاسوبية المحلية ستظل محور التركيز للاستثمار في الذكاء الاصطناعي.

2. تطبيقات الذكاء الاصطناعي

بالإضافة إلى تلبية احتياجات الاستدلال على القدرة الحاسوبية المحلية، من المتوقع أن يقلل ديبسيك-فور من تكاليف التدريب والاستدلال من خلال ابتكارات في الهيكل (مثل تقنية mHC وEngram)، مما يسرع دورة الابتكار في قيمة الذكاء الاصطناعي في الصين.

وفي الوقت نفسه، من المتوقع أن يساعد ديبسيك الشركات العالمية في نماذج اللغة الكبيرة وتطبيقات الذكاء الاصطناعي على تسريع عملياتها التجارية، وتخفيف عبء التكاليف الرأسمالية المتزايد.

مع تطبيق بنية Engram، ستنخفض حاجة الذاكرة في GPU بنسبة تصل إلى 90%، مما يقلل بشكل كبير من تكاليف الأجهزة للاستدلال. وهذا خبر سار جدًا لنشر النماذج على الطرف النهائي (الذكاء الاصطناعي على الحافة).

بالإضافة إلى ذلك، منذ يناير من هذا العام، كانت أداءات قطاع تطبيقات الذكاء الاصطناعي في سوق الأسهم الصينية ضعيفة، والسبب الرئيسي هو الخوف من “سيطرة النماذج الكبيرة على البرمجيات”. دخلت تطبيقات الذكاء الاصطناعي مرحلة “القتل المنطقي”.

لكن إصدار ديبسيك-فور قد يغير هذا المزاج. بالنسبة للشركات المحلية، فإن النماذج الكبيرة تشبه البنية التحتية الرخيصة، مما يساعد على تحسين التكاليف.

وتعتقد شركة ميود投 أن الشركات التي تعتمد بشكل كبير على البيانات الأساسية، وخدمات السحابة ذات الصلة، ستشهد أيضًا تحسنًا هامشيًا.

ملخص

لا تزال إنفيديا أقوى بنية تحتية لتدريب النماذج الكبيرة، وهذا لا شك فيه. في المدى القصير، لا تزال ميزتها في بطاقات التدريب عالية الجودة، وبيئة CUDA، وقدرات التجمع، من الصعب استبدالها.

لكن، لا يمكن تجاهل أن ميزة إنفيديا تتآكل تدريجيًا عبر “المنحنى الصاعد” الذي يقوده ديبسيك.

ديبسيك-فور، من خلال التوافق مع الرقائق المحلية والابتكار، يحاول إثبات أن استدلال الذكاء الاصطناعي لا يجب أن يعتمد فقط على أغلى بطاقات GPU، بل يمكن أن يفتح طريقًا جديدًا من خلال تحسين النظام، والتنسيق بين البرمجيات والأجهزة، والنشر المحلي، مع دفع القدرة الحاسوبية المحلية خطوة للأمام.

لا تبالغ في تقدير إنفيديا، ولا تقلل من شأن ديبسيك والقدرة الحاسوبية المحلية.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت