أقوى خطة بنية تحتية للذكاء الاصطناعي في التاريخ: شركة إنفيديا تطلق منصة Vera Rubin، وتخفض تكلفة كل رمز إلى عُشر

robot
إنشاء الملخص قيد التقدم

شركة إنفيديا تعلن عن منصة Vera Rubin AI في مؤتمر GTC 2026 في سان خوسيه، كاليفورنيا

أشار مؤسس والرئيس التنفيذي لشركة إنفيديا، هوان رونغشو، إلى أن منصة Vera Rubin تمثل قفزة جيلية، وتعد بداية أكبر مشروع بنية تحتية في تاريخ الشركة، حيث تغطي دورة حياة الذكاء الاصطناعي بالكامل من التدريب المسبق واسع النطاق إلى استنتاج الوكيل في الوقت الحقيقي.

ويعد هذا خطوة مهمة لدخول إنفيديا سوق مبيعات المعالجات المركزية التقليدية، حيث تتنافس مباشرة مع إنتل و AMD، وتوجه تحديًا لعملاق الحوسبة السحابية العالمي الذي يطور معالجات بنية ARM.

وأفاد مدونة إنفيديا أن منصة Vera CPU مزودة بـ 88 نواة و144 خيطًا على شريحة واحدة، وتستخدم نواة Arm v9.2-A Olympus المخصصة من إنفيديا، مع تحقيق معدل تعليمات متوازية (IPC) مذهل بلغ 1.5 ضعف بين الأجيال.

كما أدخلت هذه المعمارية تقنية “الخيوط المتعددة الفضائية” التي تتيح فصل مكونات خط الأنابيب ماديًا، مما يسمح لعدة خيوط بالعمل في نفس الوقت على نواة واحدة، مما يقضي على خسائر الأداء الناتجة عن الانتظار في تقنيات الخيوط المتعددة التقليدية.

وفي مستوى القدرة الحسابية، حققت منصة NVL72 الجديدة قفزة كبيرة في الكفاءة، حيث تربط 72 وحدة GPU من نوع Rubin و36 وحدة CPU من نوع Vera عبر اتصال NVLink6.

وبمقارنة مع منصة Blackwell السابقة، يمكن لهذا النظام إتمام تدريب نماذج الخبراء المختلطة (MoE) باستخدام ربع عدد وحدات GPU، كما أن معدل استنتاج الوحدات لكل واط ارتفع بمقدار 10 أضعاف، وتكلفة كل رمز (Token) انخفض إلى العشر.

بالإضافة إلى ذلك، تم دمج منصة Vera CPU المخصصة للتحقق من نتائج نماذج الذكاء الاصطناعي، والتي تحتوي على 256 وحدة CPU مبردة بالسائل، وتعمل بكفاءة مضاعفة مقارنة بالمعالجات التقليدية، مع زيادة في السرعة بنسبة 50%.

وللتعامل مع متطلبات أنظمة الوكيل ذات الكمون المنخفض والطول الكبير للسياق، أطلقت إنفيديا منصة Groq3LPX لتسريع الاستنتاج، والتي تتضمن 256 معالج LPU، ومع دمجها مع Vera Rubin، يرتفع معدل استنتاجها إلى 35 ضعفًا لكل ميغاواط.

وفي مجال تخزين البيانات، أنشأت منصة BlueField-4STX بنية تخزين أصلية للذكاء الاصطناعي، مع إطار عمل DOCA Memos الجديد، الذي يمكنه معالجة كميات هائلة من بيانات الكاش (KV) الناتجة عن نماذج اللغة الكبيرة بكفاءة عالية، مع تقليل استهلاك الطاقة وزيادة معدل الاستنتاج بمقدار 5 أضعاف، مما يسرع التفاعل متعدد الجولات مع الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت