العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
محادثة مع نائب رئيس أعمال إنفيديا: لحظة ChatGPT للروبوتات تقترب
قد يكون من الأصعب فهم شركة إنفيديا اليوم أكثر من أي وقت مضى، لكن الطريقة التي ترسم بها مستقبل الذكاء الاصطناعي، وهي شركة تؤثر على تطور العديد من مجالات الذكاء الاصطناعي، لا تزال تستحق الاستكشاف.
الإشارات على توسع أعمال إنفيديا أصبحت واضحة. في مؤتمر GTC هذا، أطلقت إنفيديا منتجات تشمل معجلات مراكز البيانات، والخوادم، ومنتجات الشبكات، وعدة نماذج مفتوحة المصدر. تم ذكر كلمات رئيسية مثل CUDA، GPU، LPU (وحدة معالجة اللغة)، مصنع الذكاء الاصطناعي، الروبوتات، القيادة الذاتية، النماذج المفتوحة المصدر بشكل متكرر في خطاب الرئيس التنفيذي إنغ ليانغ. هذه الشركة المعروفة بـGPU، أصبحت الآن أكثر ملاءمة لوصفها كمصنع للبنية التحتية للذكاء الاصطناعي أو مصنع الذكاء الاصطناعي الذي يغطي عدة حلقات.
حتى في مجال معجلات مراكز البيانات فقط، تنوعت أنواع منتجات إنفيديا. بالإضافة إلى منصة Rubin، انضمت وحدة LPU (وحدة معالجة اللغة) إلى القائمة. كانت LPU، التي كانت تابعة للدارات المتكاملة الخاصة (ASIC)، تقف في معسكر مختلف عن GPU العام، لكن بعد حصول إنفيديا على ترخيص من شركة Groq، بدأت في دمج نوعين من الشرائح.
وفيما يتجاوز 60% من أعمالها التي تخدم كبار مزودي السحابة، يبدو أن 40% من الأعمال الأكثر تعقيدًا، والتي تتضمن الذكاء الاصطناعي الفيزيائي، أصبحت مجالًا جديدًا لها. القيادة الذاتية والروبوتات أصبحت محورين مهمين. لنشر الذكاء الاصطناعي الفيزيائي، لا تقتصر إنفيديا على تصنيع الأجهزة فقط، بل تطور أيضًا منصات القيادة الذاتية والنماذج.
قد يكون من الأصعب فهم إنفيديا اليوم أكثر من أي وقت مضى، لكن الطريقة التي ترسم بها مستقبل الذكاء الاصطناعي، وهي شركة تؤثر على تطور العديد من مجالات الذكاء الاصطناعي، لا تزال تستحق الاستكشاف. خلال مؤتمر GTC، أجرى مراسلو “الاقتصادية” حوارًا مع نائب رئيس إنفيديا للكمبيوتر عالي الأداء والحوسبة الضخمة إيان بك، ونائب رئيس شركة Omniverse وتقنيات المحاكاة ريف ليبارديان، في محاولة لفهم أفكار إنفيديا حول بعض المنتجات، ومناقشة ظاهرة التغاير في الشرائح، وخطة إنفيديا للذكاء الاصطناعي الفيزيائي، ولماذا يقترب عصر روبوتات “ChatGPT”.
لماذا لا تزال GPU تهيمن
استنادًا إلى تقنية Groq، أطلقت إنفيديا في مؤتمر GTC هذا شرائح LPU، وهي Groq 3 وGroq 3 LPX. ووفقًا للمعلومات، فإن Groq 3 LPX يمكن أن يزيد من خلال استخدامه مع معالجات Rubin وGPU من خلال تحسين قدرة الاستنتاج لكل ميغاواط بمقدار 35 مرة، ومن المتوقع أن يتم دمجه في الجيل القادم من مصنع الذكاء الاصطناعي Vera Rubin في النصف الثاني من هذا العام.
انضمام Groq 3 يعني أن GPU لم تعد الشكل الوحيد لمعجلات مراكز البيانات من إنفيديا. سابقًا، كان موضوع كيفية مواجهة معسكر GPU لتحديات ASIC موضوعًا مطولًا للنقاش. في نهاية العام الماضي، أبرمت إنفيديا اتفاقية غير حصرية لحقوق الملكية الفكرية مع شركة Groq، وضمّت مؤسس الشركة جوناثان روس، والرئيسة ساني مادرا، وأعضاء فريقها الأساسيين، وهو ما فُسر على أنه خطوة لمواجهة التحديات السوقية. تتميز وحدة Groq LPU بسرعة استنتاج منخفضة. فماذا تريد إنفيديا من دمج LPU في منتجاتها؟
وفقًا لتفسير إنغ ليانغ، فإن كل رمز من نماذج مختلفة الحجم يختلف عن الآخر، ومع الطلبات الحالية على إنتاج الرموز، لا تزال منصة Rubin مهمة، لكن سوقًا جديدًا يتشكل. مع زيادة حجم النماذج، وتطول السياقات، يتطلب الأمر سرعة استنتاج عالية، ويمكن أن تتيح مجموعة الشرائح الجديدة تلبية مختلف الاحتياجات الحسابية.
قدم إيان بك تفسيره، حيث قال إن Groq 3 LPU يمكن اعتباره “حزمة تعزيز” لـ Rubin. تتمتع LPU بذاكرة SRAM سريعة بشكل مذهل، وتستطيع إجراء حسابات عائمة بسرعة. لكن لديها قيود، فإذا استخدمت LPU فقط لتشغيل نماذج تحتوي على تريليونات من المعلمات، فربما تحتاج إلى عشرات الخوادم، مما يصعب تحقيق الحجمية، وتكون التكاليف مرتفعة والكفاءة منخفضة. لكن إذا تم دمج LPU مع خادم LPX، بحيث يعملان معًا، يمكن الجمع بين ميزات الشرائح، بحيث يتم تنفيذ حسابات الانتباه على GPU، والعمليات الرياضية للموديلات المتخصصة على LPU.
قال إيان بك: “بالنسبة للجيل الحالي من روبوتات الدردشة أو أنظمة التوصية، ستظل غالبية السوق تعتمد على Rubin، ولن تحل محلها LPU في هذه السيناريوهات. لكن بالنسبة للجيل القادم من الأذكياء، مع نماذج تريليونات المعلمات، وسياقات تحتوي على مئات الآلاف من الرموز، وسرعة تصل إلى آلاف الرموز في الثانية، فإن دمج الشرائح يصبح ممكنًا.”
لم تكن إنفيديا الشركة الوحيدة التي جربت شرائح مختلفة في مراكز البيانات مؤخرًا. كشركة GPU، أبرمت AMD في نهاية فبراير تعاونًا مع Meta يتضمن تصميم شرائح نصف مخصصة. في وقت سابق من هذا الشهر، أوضحت سوزي فنغ أن تعقيد بنية الذكاء الاصطناعي يتزايد، وأن هناك العديد من الأحمال العمل، سواء كانت تدريبًا أو استنتاجًا، ونماذج كبيرة أو صغيرة، وكلها تتطلب أنواعًا مختلفة من الحوسبة. وقالت: “في المرحلة التالية من بنية الذكاء الاصطناعي، لا يمكن لشرائح واحدة أن تؤدي كل شيء بأفضل شكل، فالعالم أصبح تغايرًا. ويجب أن نأخذ في الاعتبار سعر كل واط من القدرة الحاسوبية، ونهدف إلى أعلى كفاءة عند تشغيل العديد من أحمال العمل. دائمًا سيكون هناك مكان لـ ASIC في احتياجات الحوسبة.” تتوافق أفكار سوزي فنغ مع شرح إنفيديا ليانغ حول تنويع الأحمال.
لكن مع توجه الشرائح نحو التغاير، هل ستزداد تطبيقات ASIC وتحدي مكانة GPU القابلة للبرمجة والعامة؟ خاصة عندما تتفوق بعض منتجات ASIC المخصصة لأحمال معينة من حيث السرعة والتكلفة.
يرى إيان بك أن الأمر يتعلق بكيفية موازنة الحاجة إلى حسابات محددة مع الابتكار في منصة البرمجة، وهو مسألة تتعلق بمدى رغبة الشركات في التخصيص. قال: “يمكننا تصميم شرائح ASIC خاصة بـ GPT-OSS، وفي ظروف قصوى، يمكن أن نستخدمها لتشغيل نماذج. وأنا واثق أن ذلك سيكون فعالاً. لكن هذا النموذج وطريقة تنفيذه ستتجمد في السيليكون، مما يحرم العالم من تحسينات مستقبلية، بما في ذلك تحسينات البرمجيات، مما يجعل GPT-OSS غير أسرع أو أذكى أو أكثر توسعًا.”
أوضح إيان بك أن شركة DeepSeek-R1 أُطلقت قبل عام، ومنذ ذلك الحين، زادت كفاءتها بفضل تعلم أساليب جديدة، حيث أصبح من الممكن تشغيل نماذج الخبراء المختلطين على GPU بشكل أكثر كفاءة، وذلك بفضل أن الشرائح مفتوحة وقابلة للتكوين، مع طرق جديدة لتنفيذ النماذج، مثل التوازي في المصفوفات، والتوازي الواسع، والتوازي في خطوط الإنتاج، والانتقال من FP16 إلى FP8 وFP4. وقال إن قابلية البرمجة على المنصة تتيح زيادة الأداء بمضاعفات، وتخفيض التكاليف، وزيادة الإيرادات.
أعطى إيان بك مثالاً، حيث قال إن فريقًا من 400 مهندس برمجيات في إنفيديا استغرق حوالي 4 أشهر، و120 ألف ساعة من المحاكاة على GPU، لتحسين أداء DeepSeek-R1، حيث وجدوا 38 طريقة لتحسين البرمجيات، مما أدى إلى زيادة الأداء بأربعة أضعاف على نفس GPU، أي أن التحسين البرمجي وحده يمكن أن يضاعف فوائد DeepSeek.
قال: “يمكننا تخصيص العمل بشكل كبير، وحتى ترميز النموذج مباشرة في الشريحة، لكن ذلك قد يفوتنا فرصة تطوير خوارزميات وتقنيات جديدة. ونحن اكتشفنا أن 95% من التحسينات والتقنيات التي تعتمد على قابلية البرمجة ستنطبق على جميع النماذج في النظام البيئي، وتساعد على جعل النماذج القادمة أكثر ذكاءً.”
أما بخصوص ما إذا كانت إنفيديا ستدرج شرائح Groq ضمن بيئة CUDA، فقال إيان بك إن الجيل الأول من LPU غير جاهز بعد، لكنه يخطط لفتح بيئة برمجة LPU لاحقًا، وسيتم مناقشة ما إذا كان سيتم ذلك عبر CUDA أو طرق أخرى.
بناء أساس للذكاء الاصطناعي الفيزيائي
أطلقت إنفيديا خلال مؤتمر GTC هذا العديد من الأخبار المتعلقة بالذكاء الاصطناعي الفيزيائي. فيما يخص الروبوتات، قدمت إنفيديا إطار محاكاة Isaac، ونماذج مفتوحة المصدر مثل Cosmos وIsaac GROOT، لدعم تطوير وتدريب ونشر الروبوتات، حيث يُعد Cosmos 3 أول نموذج أساسي لخلق عوالم اصطناعية، واستنتاج الفيزياء، ومحاكاة الحركات بشكل موحد. وفي مجال القيادة الذاتية، أطلقت إنفيديا نموذج استنتاج VLA (الرؤية، الحركة، اللغة) Alpamayo 1.5، لتعزيز قدرات استنتاج السيارات الذاتية القيادة.
لم تعد إنفيديا تقتصر على تقديم الأجهزة فقط للذكاء الاصطناعي الفيزيائي، بل تتجه نحو نشر المزيد من البرمجيات، بما في ذلك تعمق في النماذج المفتوحة المصدر.
قال ريف ليبارديان: إن فتح المصادر أصبح أكثر أهمية من أي وقت مضى، وإن إنفيديا استثمرت بشكل كبير في البحث والتطوير المفتوح، خاصة في مجال الذكاء الاصطناعي الفيزيائي، لأنه لا يمكن لشركة واحدة بناء الذكاء الاصطناعي الفيزيائي بمفردها. لتحقيق حلم روبوتات ChatGPT، يجب أن يساهم الجميع. وبما أن إنفيديا تقع في مركز الذكاء الاصطناعي، فهي الرابط بين الجميع في النظام البيئي، لذا فإن العمل يبدأ منها.
وأوضح ليبارديان أن السبب في تطوير نماذج عالمية أساسية يعتمد على قوانين الفيزياء وليس على قواعد اللغة، هو أن Cosmos مفتوح المصدر، ويمكن لأي شركة تشغيله في الحاسوب الخاص بها لأغراض متعددة، بالإضافة إلى توفير البيانات والإطارات اللازمة لإنشاء النماذج، والخطط. وقال: “نقوم بذلك لأننا بعيدون جدًا عن إكمال الذكاء الاصطناعي الفيزيائي والروبوتات، ونحتاج إلى قوة المجتمع المفتوح لدفع التطور. حاليًا، تستخدم العديد من الشركات نماذج Cosmos للتدريب وتقييم النماذج، وتحويل الذكاء الاصطناعي إلى مدرس لغيره.”
وفيما يخص مراحل تطور الذكاء الاصطناعي الفيزيائي، قال ليبارديان إن التحدي في القيادة الذاتية انتقل من المجال العلمي إلى الهندسي، وهو الآن يركز على توسيع النطاق، واستكشاف كيفية جعل المزيد من السيارات تسير على الطرق. أما بالنسبة للروبوتات العامة، فالوضع مختلف تمامًا، حيث يواجه تحديات في كل جانب، مثل عدم وجود جسم روبوتي جيد، أو أذرع قوية، وما زالت الحاجة ماسة لتحسين الحساسات، والمحركات، والبطاريات.
وأضاف أن الوضع الحالي هو أنه حتى لو تم بناء جسم روبوتي مثالي، فإن الروبوت لن يستخدمه، ويحتاج الكثير من المهندسين لبرمجته، لجعله يؤدي مهمة بسيطة. لكن الآن، التقنية أصبحت متاحة لجعل عقول الروبوتات مفيدة، وقريبًا ستتجاوز هذه المرحلة المهمة، مع اقتراب عصر روبوتات ChatGPT. والتواصل بين التقنية والتطبيقات يحدث الآن، مثل استخدام قدرات الاستنتاج لتوليد البيانات اللازمة لتدريب الروبوتات.