تشن هسون يخلق "اقتصاديات التوكن" إنفيديا تتبنى عصر الوكيل الذكي

في فجر السابع عشر من مارس، افتتحت شركة إنفيديا GTC، التي يُشار إليها بـ"السوبر بول" للذكاء الاصطناعي و"بول" الذكاء الاصطناعي للعام الجديد، مع ظهور “زعيم تعليم الذكاء الاصطناعي” ومديرها التنفيذي ومؤسسها جيف هوانغ مرة أخرى على المسرح، وبعاصفة تقنية تُحدّث حدود القياس الفيزيائي.

أعلنت إنفيديا أن منصة Vera Rubin (بنية أحدث معمار للرقائق) لديها حاليًا سبع رقائق جديدة تم إدخالها بالكامل في الإنتاج، وأن منصة Vera Rubin تشرع في عصر Agentic AI، بهدف بناء أكبر “مصنع للذكاء الاصطناعي” عالميًا.

وبشكل محدد، تشمل منتجات هذه الرقائق: NVIDIA Vera CPU (أن إنفيديا قد دخلت إلى رقائق وحدات المعالجة المركزية الخاصة بالخوادم)، NVIDIA Rubin GPU (منتجها الرائد في وحدات معالجة الرسوميات)، NVIDIA NVLink 6 (شريحة تبديل الجيل السادس من NVLink، وتوصيل داخلي للرقائق)، NVIDIA ConnectX-9 SuperNIC (بطاقة شبكة فائقة)، NVIDIA BlueField-4 DPU (شريحة للذاكرة والتخزين)، NVIDIA Spectrum-6 (شريحة تبديل إيثرنت تدعم تقنية CPO)، إضافة إلى شريحة NVIDIA Groq 3 LPU المدمجة حديثًا (أول شريحة بعد الاستحواذ على Groq).

يمكن ملاحظة أن عائلة الرقائق لا تضم فقط منتجات CPU وGPU التي يعرفها الجميع عادةً، بل تشمل أيضًا LPU القادمة من Groq، وكذلك منتجات شاملة مثل رقائق التخزين ورقاقات التبديل. ويمكن لهذه الرقائق أيضًا أن تتشكل ضمن 5 رفوف (Racks) لتعمل في مراكز البيانات.

قال جيف هوانغ: “إن Vera Rubin هي قفزة انتقالية بين الأجيال—سبع شرائح رائدة، وخمس رفوف، وحاسوب عملاق عملاق—لتزويد كل مرحلة من مراحل الذكاء الاصطناعي بالطاقة.” وأضاف: “ومع إطلاق Vera Rubin، فقد وصل منحنى انعطاف Agentic AI إلى مرحلته، وسيبدأ أكبر موجة لبناء البنية التحتية في التاريخ.”

在演讲中,黄仁勋还预测,Blackwell与Rubin的AI芯片,到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测,已经翻倍。

تُعد هذه الإحاطة (الإعلان) غير مسبوقة؛ فهي ليست مجرد GPU، وليست مجرد ترقية لتقنية واحدة بعينها. أكد جيف هوانغ مرة أخرى على اقتصاديات “Token”، وطبّق نظرية “كيكة الذكاء الاصطناعي ذات الطبقات الخمس”.

أحد الاتجاهات هو أن الشركات الكبرى تتجمع باستمرار حول القدرات، وتسد الثغرات، وتمتد إلى المنبع والمصب، لتشكيل جدران حصينة أقوى. لقد انتهت مرحلة المنافسة المنفردة على رقائق الأداء أو الأداء وحده. وتدور الآن منافسة شديدة على مستوى الأنظمة بشكل شامل.

التحول الثوري الكامل في Vera Rubin: من شريحة واحدة إلى عصر على مستوى النظام

باعتبارها المورث (حلقة الوصل) عبر الأجيال لـBlackwell، تحدد إنفيديا إنتاجًا جماعيًا لبنية Rubin (R100) في النصف الثاني من عام 2026. وفي المستوى الأساسي السفلي للمعمار، انتقلت هذه البنية بالكامل إلى عملية TSMC ‏3nm (N3P). وتحقق وحدة Vera CPU المميزة (المبنية على معمار Olympus المطوّر ذاتيًا بثمانية وثمانين نواة) ووحدة Rubin GPU تكاملًا متشابهًا في حزمة واحدة على نحو ذي معنى فيزيائي عبر تقنية NVLink-C2C بمعدل 1.8 TB/s.

هذا التصميم شديد الارتباط “المُزيل لـPCIe” يجعل قدرة الحوسبة غير مقيدة بالروابط التقليدية. ففي دقة NVFP4، ارتفعت قدرة الاستدلال على GPU واحدة إلى 50 PFlops، بينما تصل قدرة التدريب إلى 35 PFlops. ويُظهر الاستدلال على نطاق واسع كفاءة طاقة أعلى بما يصل إلى 5 أضعاف مقارنةً بـBlackwell.

وعلى مستوى سيناريوهات التطبيق، تُعد Rubin “مصنعًا رقميًا” للقلب المصمم خصيصًا لـ"الذكاء الاصطناعي الوكيلي" (Agentic AI) والاستدلال طويل السياق. وتُدخل Transformer Engine 3.0 ومنصة Inference Context Memory للتخزين، وتقوم عبر BlueField-4 DPU بتحمّل ضغط إدارة التخزين، ما يمكّن وكلاء الذكاء الاصطناعي من معالجة ترابط سياقات لعشرات الآلاف من Tokens، وإجراء استدلال منطقي متعدد الخطوات واتخاذ قرارات آنية. وتشتمل المنصة على شبكة Spectrum-X Ethernet Photonics تدعم تقنية السيليكون-فوتون (CPO). يبلغ إجمالي عرض النطاق الداخلي لوصلات NVL72 في خزانة واحدة 260 TB/s، وهو ما يساوي عدة أضعاف مجموع عرض نطاق العبور عبر الحدود للإنترنت عالميًا.

كما طرحت إنفيديا رفّ Vera CPU، وهو مبني على البنية التحتية عالية الكثافة للتبريد السائل المبنية على منصة MGX. يتضمن الرف تكامل 256 من Vera CPU لتقديم سعة قابلة للتوسع وكفاءة طاقة، مع امتلاك أداء عالمي على مستوى الخيط الواحد (single-thread). وبالتزامن مع رفوف الحوسبة الخاصة بـGPU، فإنها توفر أساسًا لوكلاء Agentic AI على نطاق واسع والتعلم المعزز—كفاءة Vera هي ضعف كفاءة CPU التقليدية، مع زيادة السرعة بنسبة 50%.

حاليًا، تشمل العملاء الذين يعملون على نشر Vera CPU بالتعاون مع إنفيديا: Alibaba وByteDance وMeta وOracle Cloud Infrastructure، إضافة إلى CoreWeave وLambda وNebius وNscale. وقد دخلت Vera بالفعل في الإنتاج الكامل، ومن المقرر توريدها في النصف الثاني من هذا العام.

تواجه مراكز البيانات التقليدية وبنية AI التحتية تغييرات جديدة. وقال جيف هوانغ: “في عصر الذكاء الاصطناعي، تُعد Tokens الذكية عملة جديدة، بينما يُعد مصنع الذكاء الاصطناعي البنية التحتية التي تولد هذه Tokens. ومن خلال التصميم المرجعي Vera Rubin DSX AI Factory ونموذج Omniverse DSX Blueprint (مخطط التوأم الرقمي)، فإننا نوفر الأساس لبناء أعلى مصانع ذكاء اصطناعي إنتاجية في العالم، ونسارع بوقت تحقيق الإيراد الأول، ونُعظم أيضًا من نطاق التشغيل وكفاءة الطاقة.”

رقاقة الاستدلال Groq LPU: بناء إمبراطورية حوسبة هجينة مع GPU

لننظر الآن إلى شريحة Groq التي تحظى باهتمام كبير.

في أواخر عام 2025، وبموجب ترخيص استراتيجي بقيمة 20 مليار دولار وتكامل عميق قامت به إنفيديا، تمثل بنية Groq LPU (Language Processing Unit) “طائرة اعتراض فائقة السرعة” للصيد الدقيق للـتأخير، ولبدء عصر التفاعل الفوري.

وقالت إنفيديا إن إصدار Groq 3 LPX (على مستوى الرف) الذي تم تقديمه اليوم يمثل علامة بارزة في الحوسبة المسرّعة. يتضمن رف LPX 256 معالج LPU، مع 128GB من SRAM على الشريحة و640 TB/s من عرض نطاق التوسعة. وعند نشره مع Vera Rubin NVL72، تعمل Rubin GPU وLPU من خلال الحوسبة المشتركة لكل طبقة من النموذج على تحسين سرعة فك التشفير، وبالتالي توفير الحساب لكل Token ناتج.

في الوقت نفسه، يعتمد LPX تصميمًا كاملاً للتبريد السائل، ويُبنى على البنية التحتية MGX، ليُدمج بسلاسة في مصنع Vera Rubin AI من الجيل القادم، ومن المقرر توفيره في النصف الثاني من هذا العام.

مع دخول عصر الاستدلال، لا تكتفي إنفيديا بالاعتماد على GPU فحسب؛ بل تدمج معماريات جديدة وترفع الكفاءة بشكل كبير.

在技术架构上,Groq LPU抛弃了传统GPU中复杂的缓存管理、分支预测和指令重排等“猜测性”硬件设计,转而采用一种确定性流水线架构。这种设计将硬件复杂度彻底剥离至编译器层,使得数据在芯片内的流动如同精密的传送带,没有任何不可控的抖动(Jitter)。

在实战应用场景中,由英伟达技术加持的LPX机架,正成为“代理型AI(Agentic AI)”与“实时语音交互”的唯一救星。在自动驾驶辅助系统或高频交易机器人中,任何毫秒级的计算波动都可能导致决策失效,而LPU的确定性算力保证了任务执行时间永远恒定。

بالنسبة لسلاسل Agent المعقدة التي تتطلب استدلالًا متعدد الخطوات وحتى تتضمن مئات مرات استدعاء النماذج، يستطيع LPU اختصار “التفكير المتسلسل” الذي كان يستغرق دقائق إلى بضع ثوانٍ فقط، بما يمكّن الذكاء الاصطناعي من إجراء حوار واقعي طبيعي وسلس في الوقت الفعلي والتعاون كما يفعل البشر. ولحمل هذا النمط الجديد من الحوسبة، تدمج إنفيديا وحدات LPU بسلاسة في نظامها البيئي الواسع لـCUDA عبر تقنية NVFusion، وتقوم بجدولة سريعة للأوزان المدربة من GPU إلى مصفوفة استدلال LPU من خلال بنية disaggregated(解耦式).

在这一能力加持下,英伟达将训练和推理分离,构建了一个混合算力帝国:GPU负责在后方深耕万亿参数模型的训练与长文本预处理,而LPU阵列则在前方防线以10倍于对手的能效比与极速响应,统治着万亿级的实时推理市场,正式宣告了“推理即时化”时代的到来。

إصدار “الطومسون/اللوبستر” من إنفيديا: احتضان عصر الوكلاء

وفي الوقت نفسه، طرحت إنفيديا سلسلة من التقدمات المهمة حول وكلاء الذكاء الاصطناعي (Agent) والنماذج المفتوحة والتطبيقات العابرة للصناعات. أكثر إصدار لفت انتباه المطورين هو حزمة البرامج NemoClaw الموجهة إلى مجتمع OpenClaw. مؤخرًا، حقق مشروع OpenClaw مفتوح المصدر انتشارًا سريعًا بين مجتمع المطورين، واعتبره كثيرون في الصناعة بمثابة بذرة لـ"نظام تشغيل شخصي للذكاء الاصطناعي".

كما أشاد جيف هوانغ بـOpenClaw بشكل كبير. وقال جيف هوانغ: “يُفتح OpenClaw أمام الجميع بوابة الحدود التالية للذكاء الاصطناعي، وأصبح مشروعًا مفتوح المصدر الأسرع نموًا في التاريخ.” وأضاف: “على عكس تطبيقات الذكاء الاصطناعي التقليدية، فإن هدف OpenClaw هو جعل وكلاء الذكاء الاصطناعي يعملون بشكل مستمر مثل التطبيقات، وأن يكونوا قادرين على التخطيط للمهام تلقائيًا، واستدعاء الأدوات، وإنجاز سير عمل معقد.”

ضمن هذا الإطار، يوفر NemoClaw مجموعة كاملة من قدرات البرمجيات الأساسية، بحيث يمكن للمطورين تثبيت نماذج NVIDIA Nemotron عبر أمر واحد، إلى جانب بيئة وقت التشغيل OpenShell التي تم إصدارها حديثًا، وإضافة قدرات تحكم بالأمان والخصوصية لوكلاء الذكاء الاصطناعي. وبالاستفادة من بيئة الحماية والعزل (isolated sandbox) التي يقدمها OpenShell، يمكن لوكلاء الذكاء الاصطناعي اتباع سياسات أمان وقواعد خصوصية محددة عند الوصول إلى الأدوات والبيانات، وبالتالي الحفاظ على أمان البيانات مع رفع الكفاءة.

يدعم NemoClaw أيضًا الاستدعاء المختلط للنماذج المحلية ونماذج السحابة. يمكن للمطورين تشغيل نموذج Nemotron على جهاز مخصص للمستخدم، وفي الوقت نفسه الوصول إلى النماذج المتقدمة في السحابة عبر مسارات الخصوصية، وبذلك يحصلون على قوة حوسبة أكبر مع الحفاظ على خصوصية البيانات. وتقول إنفيديا إن NemoClaw يمكنه العمل على منصات حوسبة مخصصة متعددة، بما في ذلك أجهزة الكمبيوتر المحمولة وأجهزة PC المزودة ببطاقات GeForce RTX، ومحطات عمل RTX PRO، إضافة إلى أنظمة DGX Station وDGX Spark، لتوفير قدرة حوسبة مستقرة لوكلاء الذكاء الاصطناعي للتشغيل على مدار الساعة.

بالإضافة إلى دفع تطور منصة وكلاء الذكاء الاصطناعي، تسرع إنفيديا أيضًا في بناء نظام بيئي للنماذج المفتوحة. وفي هذا المؤتمر، أعلنت إنفيديا عن تشكيل Nemotron Coalition (ائتلاف Nemotron)، بالشراكة مع العديد من مختبرات الذكاء الاصطناعي الرائدة عالميًا ومؤسسات تطوير النماذج، لدفع تطوير النماذج المفتوحة على الحدود.

إلى جانب التعاون على مستوى النظام البيئي، توسع إنفيديا أيضًا في خطوط منتجات نماذج مفتوحة متعددة لدعم التطور في مجالات مختلفة مثل وكلاء الذكاء الاصطناعي والذكاء الفيزيائي والبحث الطبي. ومن بين هذه النماذج، تعزز نماذج NVIDIA Nemotron 3 سلسلة قدرات الفهم متعدد الوسائط بشكل أكبر، وقدمت إصدارات متعددة مثل Ultra وOmni وVoiceChat. تستطيع هذه النماذج معالجة اللغة والمعلومات البصرية والصوتية في الوقت نفسه، بحيث لا يتمكن وكيل الذكاء الاصطناعي فقط من إجراء حوارات طبيعية، بل أيضًا تنفيذ مهام استدلال معقدة، واستخراج المعلومات الأساسية من مصادر بيانات متنوعة مثل الفيديو والوثائق.

بالإضافة إلى وكلاء الذكاء الاصطناعي في العالم الرقمي، تدفع إنفيديا أيضًا الذكاء الاصطناعي إلى العالم الحقيقي. تشمل النماذج الجديدة التي تم إصدارها نماذج أساسية متعددة للروبوتات وأنظمة القيادة الذاتية. على سبيل المثال، NVIDIA Isaac GR00T N1.7 هو نموذج رؤية ولغة وأفعال موجه للروبوتات الشبيهة بالبشر، ويمكنه دعم قيام الروبوت بالإدراك والاستدلال واتخاذ قرارات الأفعال داخل بيئات واقعية.

أما NVIDIA Alpamayo 1.5 فهو موجّه لسيناريوهات القيادة الذاتية، ويعزز قدرة استدلال المركبات من خلال تلميحات الملاحة، ودعم الكاميرات المتعددة، ومعلمات الكاميرات القابلة للتكوين. وفي حين يوشك إصدار NVIDIA Cosmos 3 على الوصول، ويُشار إليه باعتباره نموذجًا أساسيا موحدًا لأول مرة لـ"توليد العالَم واستدلال الفيزياء ومحاكاة الأفعال". ومن المتوقع أن يساعد هذا الروبوتات وأنظمة القيادة الذاتية على إكمال التدريب واتخاذ القرارات في البيئات المعقدة.

من منصة وكلاء الذكاء الاصطناعي إلى نظام بيئي للنماذج المفتوحة، وصولًا إلى تطبيقات مثل الروبوتات والقيادة الذاتية وعلوم الحياة، تعمل إنفيديا تدريجيًا على بناء منظومة تقنية للذكاء الاصطناعي تمتد عبر العالم الرقمي والعالم الفيزيائي. ومع انضمام المزيد من المطورين والشركات إلى نظام بيئي للنماذج المفتوحة ووكلاء الذكاء الاصطناعي، يُتوقع أن يدفع هذا النظام أيضًا الابتكار في مجال الذكاء الاصطناعي وتطبيقه على نطاق عالمي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت