العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
لا يقل عن تريليون دولار من الإيرادات! خطاب جنسن هوانج يفجر مؤتمر GTC، تتولى إنفيديا مجددًا السيطرة على مصير الذكاء الاصطناعي (مع نصوص كاملة بـ 20000 كلمة)
مقال | قسم “مراقبة وادي السيليكون” زين جون
مركز SAP في سان خوسيه، وادي السيليكون، ممتلئ تقريبًا بالكامل.
هذا الملعب، الذي عادةً يُستخدم لفريق NHL سان خوسيه شاركس، تحول اليوم إلى “مكة الذكاء الاصطناعي” السنوية. حشد من المطورين والمهندسين والمشترين من الشركات والمستثمرين من 190 دولة ملأوا كل المقاعد، وتركز أنظار الجميع على شخصية مألوفة: ذلك الرجل الوسيم بجلدته الجلدية.
أول كلمة قالها الرئيس التنفيذي لشركة إنفيديا، هوانغ رون مين، عند صعوده إلى المنصة كانت: “It all starts here.” — كل شيء يبدأ هنا. وخلال أكثر من ساعتين، أوفى بوعده. قال وهو يبتسم، إن اليوم هنا يشبه مباراة سوبر بول.
توقع أن تتجاوز مبيعات إنفيديا من الجيل الجديد من شرائح تسريع الذكاء الاصطناعي، Blackwell، ومن منتجات Rubin القادمة، 1 تريليون دولار بحلول نهاية عام 2027. هذا الرقم يتجاوز بكثير التوقعات السابقة التي كانت عند 500 مليار دولار في أكتوبر 2025، ويؤكد أن موجة الاستثمار في بنية تحتية الذكاء الاصطناعي لا تزال تتسارع.
طلبات تريليونية: إعادة ضبط رواية الطلبات
أكثر الأرقام إثارة في هذا الخطاب جاءت من جانب الطلبات. يتوقع هوانغ رون مين أن تتجاوز طلبات شراء Blackwell وVera Rubin من إنفيديا، بحلول نهاية العام المقبل، 1 تريليون دولار، وهو ضعف التوقعات التي كانت عند 500 مليار دولار العام الماضي.
وقد رفعت إنفيديا توقعاتها سابقًا. في الشهر الماضي، ألمح المدير المالي، كريس، خلال مكالمة الأرباح، إلى أن مبيعات الشرائح ستفوق التوقعات، واليوم، حول هوانغ رون مين ذلك إلى أرقام محددة.
خلفية هذا الثقة هي أن أحدث تقارير إنفيديا تظهر أن إيرادات مركز البيانات ربع السنوية بلغت 62.3 مليار دولار، بزيادة 75% على أساس سنوي؛ ومع ذلك، لم ترتفع أسهم الشركة بشكل متزامن، بل تراجعت حوالي 11% من أعلى مستوى لها عند 207 دولارات في أكتوبر الماضي، مما أثار شكوك السوق حول قدرة إنفيديا على الحفاظ على معدل النمو حتى 2027، حيث أن مساحة النمو تحدد مباشرة مدى ارتفاع سعر السهم. رقم التريليون دولار يرد على هذه المخاوف الوهمية.
المنتج الرئيسي: الظهور الكامل لـ Vera Rubin
Vera Rubin هو نجم هذا الخطاب بلا منازع، لكنه لم يُعلن رسميًا إلا بعد ساعة ونصف من الانتظار. كانت هذه المنظومة قد كُشفت في نهاية العام الماضي خلال فعالية في واشنطن، وظهرت تفاصيل أكثر في CES 2026 بداية العام، واليوم تم الإعلان عنها بشكل كامل. أهم النقاط:
Vera Rubin NVL72 هو الطراز الرائد الحالي، يتكون من 72 وحدة GPU متصلة عبر NVLink 6، ويعمل بنظام تبريد سائل كامل. أكد هوانغ رون مين: “كل الكابلات اختفت” — باستخدام حوامل نمطية، حيث تقل مدة التركيب من ساعتين في Blackwell إلى 5 دقائق فقط. يُبرد النظام بماء ساخن عند 45 درجة. وسمّاه “محرك عصر الذكاء الاصطناعي السريع”.
وإصدار Rubin Ultra يمتد ليشمل 144 وحدة GPU في خزانة واحدة، ويستخدم رف Kyber الجديد، مع حسابات أمامية مسؤولة عن الحسابات، وخلفية مسؤولة عن NVLink. مقارنةً بجيل Hopper، فإن منصة Vera Rubin يمكنها نظريًا أن تصل إلى 7 ملايين توكن/ثانية، مقابل 2 مليون فقط لـ Hopper. وسمّه هوانغ بأنه “أهم رسم بياني لمستقبل مصانع الذكاء الاصطناعي”، وقسم قدرات الاستدلال إلى أربع مستويات: Free وHigh وPremium وUltra، بأسعار تعتمد على التوكن/ثانية، حيث “التوكن هو السلعة الكبرى الجديدة”.
سيتم بيع معالجات Vera CPU كمنتج مستقل، لتكون مصدر دخل مستقل في سوق المعالجات المركزية. وتتوقع إنفيديا أن يساهم هذا القطاع بمليارات الدولارات من الإيرادات. أول نظام Vera Rubin يعمل الآن على سحابة Microsoft Azure، والتقدم في جمع العينات يسير بشكل جيد — وهو ما يختلف عن مشاكل الجودة التي ظهرت في جيل Blackwell في بدايته.
استحواذ Groq: دمج LPU رسميًا
في أعياد الميلاد العام الماضي، استحوذت إنفيديا بمبلغ يقارب 20 مليار دولار على أصول Groq الأساسية، وضمّت فريقًا من المؤسسين، بمن فيهم جوناثان روس. اليوم، أعلن هوانغ عن المنتج التقني لهذا الاستحواذ: Groq 3 LPU (وحدة معالجة اللغة).
يهدف Groq 3 إلى أن يكون معجل استدلال Vera Rubin، وليس بديلًا لـ GPU. من الناحية التقنية، يتكون استدلال النماذج اللغوية الكبيرة من مرحلتين: المرحلة الأولى، التي تتطلب حسابات كثيفة، تسمى prefill (ملء المقدمة)، والمرحلة الثانية، التي تتطلب عرض نطاق عالٍ، تسمى decode (فك التشفير). تتفوق GPU في مرحلة prefill عالية الإنتاجية، بينما LPU من Groq، مع عرض نطاق 22 تيرابايت/ثانية من ذاكرة HBM4، مُحسّن خصيصًا لمرحلة decode، وتفوق بمقدار حوالي 7 أضعاف على نظيراتها من GPU. ويعملان معًا عبر بنية استنتاج غير متجانسة Disaggregated Inference، حيث تتولى GPU مهمة prefill، وLPU مهمة decode، ويُنسّق النظام عبر Dynamo من إنفيديا.
أطلقت إنفيديا رفوفًا مخصصة LPX، تحتوي على 256 وحدة Groq 3 LPU، وتُركب بجانب رفوف Vera Rubin NVL72، وتتصل عبر Spectrum-X مخصص. كل وحدة Groq 3 LPU تحتوي على 500MB من الذاكرة المدمجة، وتُصنع بواسطة سامسونج، ومن المتوقع أن تُشحن في الربع الثالث. تظهر البيانات أن الجمع بين Vera Rubin NVL72 وGroq 3 LPX يُمكن أن يحقق زيادة بمقدار 35 ضعف في الأداء لكل ميغاواط من التوكنات/ثانية مقارنة بـ Blackwell.
قال مسؤولون في إنفيديا قبل الإعلان إن هذا الهيكل يمكن أن يوفر استدلالًا منخفض التأخير بمعدل “آلاف التوكنات في الثانية” لنماذج اللغة الكبيرة، وهو مستوى كانت تهيمن عليه سابقًا شركات مثل Cerebras وSambaNova.
إنفيديا تروج لنفسها: بناء عصر الوكيل الذكي
بعيدًا عن الأجهزة، قضى هوانغ رون مين وقتًا كبيرًا في شرح موقع إنفيديا في البرمجيات. النقطة الأساسية هي موجة الوكلاء الذكيين (AI Agents) الحالية، وخصوصًا منصة OpenClaw المفتوحة المصدر التي حققت نجاحًا مذهلاً. مدحها بأنها من أنجح المشاريع المفتوحة على الإطلاق.
شبه هوانغ رون مين OpenClaw بنظام التشغيل: “إنها نظام تشغيل الحواسيب الوكيل، تمامًا كما أن Windows جعلت الحواسيب الشخصية ممكنة.” وادعى أن “كل شركة عالمية بحاجة إلى استراتيجية OpenClaw”، واعتبرها مماثلة لاحتضان Linux أو HTTP/HTML في بداية الإنترنت.
أطلقت إنفيديا NemoClaw، وهي مجموعة برمجية مرجعية مفتوحة المصدر موجهة للمؤسسات، تركز على الأمان: تساعد الشركات على حماية البيانات الحساسة أثناء نشر الوكلاء، وتمنع تسرب المعلومات أثناء التشغيل الذاتي. أعلنت مايكروسوفت عن تعاون مع إنفيديا لتطوير قدرات حماية في الوقت الحقيقي تعتمد على Nemotron وNemoClaw.
بالإضافة إلى ذلك، استهدفت إنفيديا منتجات مثل DGX Spark وDGX Station، التي تُعد منصات تطوير ونشر محلية لوكلاء الذكاء الاصطناعي، وتُدمج قدرات NemoClaw في الحافة.
خارطة الطريق: من فاينمان إلى مراكز البيانات الفضائية
على صعيد الأجهزة، رسم هوانغ رون مين لأول مرة بعد Vera Rubin تصورًا للجيل القادم من بنية Feynman، المقرر إطلاقها في 2028. ستحتوي على معالجات GPU جديدة، وLPU جديد يُسمى Rosa (تكريمًا لروزليند فرانكلين مكتشفة بنية الحمض النووي)، مع DPU من نوع BlueField-5، وNIC من نوع CX10، ومنصة اتصال Kyber تدعم الكابلات النحاسية والاتصال البصري المدمج (CPO).
الأكثر إثارة هو الإعلان عن تطوير نسخة فضائية من وحدة Vera Rubin — تسمى Space-1، بهدف نشر مراكز بيانات الذكاء الاصطناعي في المدار. يعترف هوانغ أن الحماية من الإشعاع في الفضاء تمثل تحديًا رئيسيًا، لكن إنفيديا بدأت العمل على ذلك، وهو يتماشى مع استراتيجيات شركات مثل SpaceX وGoogle وAmazon.
كما أطلقت إنفيديا تصميم مرجعي لمصنع ذكاء اصطناعي في الفضاء، يُدعى DSX AI Factory، باستخدام Omniverse DSX Blueprint، لمساعدة الشركات على تخطيط ومحاكاة وإدارة دورة حياة مراكز البيانات الضخمة. أعلنت AWS عن توسيع التعاون، مع وعود بنشر أكثر من مليون وحدة GPU من إنفيديا، تشمل Blackwell وRubin وGroq 3 LPU، خلال هذا العام.
السيارات الذاتية القيادة والروبوتات: توسع الشراكات بشكل كبير
المحور الثالث في الخطاب هو القيادة الذاتية. أعلن هوانغ رون مين أن برمجيات Drive AV من إنفيديا تتعاون مع Uber، وأنها ستنشر أسطول سيارات ذاتية القيادة مدعومة بتقنيات إنفيديا في 28 مدينة عبر أربع قارات بحلول 2028، مع مدينتي لوس أنجلوس وسان فرانسيسكو كأول مدينتين، وبدء التشغيل في 2027.
وفي الوقت نفسه، تطور شركات مثل BYD وGeely وNissan وHyundai سيارات ركاب ذاتية القيادة من المستوى L4 على منصة Drive Hyperion. وتعمل شركات مثل Isuzu وTier IV الصينية على تطوير حافلات ذاتية القيادة باستخدام شرائح AGX Thor من إنفيديا. واستشهد هوانغ بكلمة: “لقد حان وقت ChatGPT للسيارات ذاتية القيادة.”
وفي مجال الروبوتات، ظهر روبوت Olaf من ديزني (من فيلم Frozen) وتفاعل مع هوانغ رون مين، حيث تم تدريبه في بيئة محاكاة من إنفيديا، وهو يعرض تطبيقات الذكاء الاصطناعي المادي (Physical AI) في الترفيه.
ربما يكون تقييم Patrick Moorhead، كبير محللي Moor Insights & Strategy، هو الأكثر دقة: إنفيديا لم تعد شركة شرائح فقط، بل منصة.
خلال الساعة والنصف الأولى من الخطاب، ركز هوانغ رون مين على مفهوم المنصة، والبنية التحتية. أكد مرارًا أن إنفيديا لم تعد شركة شرائح، بل شركة منصة بيئية، ومؤسسة بنية تحتية. اليوم، تظهر استراتيجياتها في التدريب، والاستدلال، والتنسيق، والأمان البرمجي، والذكاء الاصطناعي الفيزيائي، والقيادة الذاتية، والروبوتات، وحتى مراكز البيانات الفضائية.
وبشكل أكثر تحديدًا، تبني إنفيديا حُصنًا من خلال ثلاثة مستويات: البنية التحتية الكاملة (GPU + LPU + CPU + DPU + الشبكة)، والنظام البيئي البرمجي (CUDA، NemoClaw، Dynamo، Omniverse)، وتطبيقات الصناعة (السيارات، الرعاية الصحية، الصناعة، الترفيه). وتُعد البرمجيات ميزة تنافسية متزايدة، وهي الجزء الذي يصعب على المنافسين مثل AMD نسخه.
توسيع الشراكات في القيادة الذاتية، ودمج منصة OpenClaw، يشيران إلى أن مصادر نمو إنفيديا ستتوسع من مجرد مراكز البيانات إلى بنية تحتية أوسع لتطبيقات الذكاء الاصطناعي. يصف هوانغ رون مين في ختام خطابه الصورة المستقبلية: أن الذكاء الاصطناعي سيتحول من أدوات توليد النصوص الحالية إلى أنظمة ذاتية قادرة على الاستدلال والتخطيط وتنفيذ المهام، وتوفير القوة الأساسية لهذه الأنظمة ستكون مراكز بيانات الذكاء الاصطناعي التي تعتمد على “مصنع التوكنات” كمؤشر رئيسي للأداء — إنفيديا تريد أن تكون المزود الكامل لهذا المصنع.
السعر وتحليل السوق: تأكيد الثقة، لكن الاختلافات لا تزال قائمة
خلال الخطاب، ارتفعت أسهم إنفيديا بنحو 1.65% عند الإغلاق، من 181 دولارًا إلى حوالي 183 دولار، مع حجم تداول بلغ 217 مليون سهم، وقيمة سوقية بلغت 4.45 تريليون دولار، مما يشير إلى أن هذا الحدث على الأقل عزز الثقة السوقية على المدى القصير.
المحلل من Wedbush، دان آيفز، كان الأكثر تفاؤلاً بعد الخطاب. وصف هوانغ رون مين بأنه “بابا الذكاء الاصطناعي”، واعتبر أن هذا الحدث هو “تعزيز الثقة التي يحتاجها المستثمرون في التكنولوجيا”، وذكر أن إنفيديا “تجلس على قمة الذكاء الاصطناعي”. وأعاد تأكيد أن “ثورة الذكاء الاصطناعي تتسارع، وليس تتباطأ”، وأن توقع الطلبات بقيمة تريليون دولار يعكس أن الطلب يأتي من كل الجهات: شركات، حكومات، وشركات أصيلة في الذكاء الاصطناعي. ويقدر أن كل دولار واحد ينفق على شرائح إنفيديا سيولد من 8 إلى 10 دولارات من القيمة المضافة في البرمجيات، والأمن السيبراني، والطاقة، ومراكز البيانات.
المحلل من Cantor Fitzgerald، CJ Muse، كان قد حدد هدف السعر عند 300 دولار قبل الخطاب، وما زال يوصي بالشراء، معتبرًا أن خطاب هوانغ رون مين يعزز مكانة إنفيديا كشركة بنية تحتية كاملة للذكاء الاصطناعي، مع رؤية واضحة للطلب في 2027.
أما جين مونستر، من Deepwater، فكان أكثر حذرًا قبل الخطاب، معتقدًا أن التحدي الحقيقي يكمن في مخاوف المستثمرين من تباطؤ النمو بعد 2027 — وهو ما يتماشى مع الرواية الأوسع حول ما إذا كانت استثمارات رأس المال في الذكاء الاصطناعي قد بلغت ذروتها.
وفي ظل فقاعة الذكاء الاصطناعي والاستثمارات الضخمة في البنية التحتية خلال العام الماضي، أعطى هوانغ رون مين اليوم دفعة قوية للصناعة، موضحًا رؤية أوسع لنشر الذكاء الاصطناعي، مع احتفاظ إنفيديا بموقعها الأساسي في هذا المستقبل.
هل فقاعة الذكاء الاصطناعي؟ الرجل الوسيم بجلدته الجلدية يعتقد أن الأمر بدأ للتو.
【الخطاب الكامل المرفق】
مرحبًا بكم في GTC! أود أن أذكركم أن هذا مؤتمر تقني. عدد كبير منكم بدأ الصفوف مبكرًا، ويسعدني أن أراكم جميعًا هنا. في GTC، سنناقش التقنية والمنصات. تمتلك NVIDIA ثلاثة منصات رئيسية، وقد يظن البعض أننا نركز على CUDA X فقط، لكن النظام هو منصتنا الأخرى، والآن لدينا منصة جديدة تسمى AI Factories. سنناقش كل ذلك، لكن الأهم هو التركيز على النظام البيئي.
قبل أن نبدأ، أود أن أشكر المضيفين قبل البرنامج، سارة جو وألفريد لين، بالإضافة إلى أول صندوق استثمار مغامر لـ NVIDIA، Sequoia Capital، بقيادة غافين بيكر. كأول مستثمر رئيسي، هم خبراء في التقنية، ويمتلكون شبكة واسعة من العلاقات، ويملكون منظومة تقنية وبيئية واسعة. وأشكر أيضًا جميع الضيوف المميزين المدعوين، بالإضافة إلى الشركات الراعية. NVIDIA شركة منصة، تمتلك التقنية، والمنصات، وبيئة غنية. اليوم، يجتمع هنا ممثلو صناعة تقدر قيمتها تريليون دولار، مع 450 شركة راعية، و1000 جلسة تقنية، و2000 متحدث. ستغطي هذه القمة كل طبقات بنية الذكاء الاصطناعي الخمسة، من البنية التحتية الأساسية من أراضٍ وكهرباء ومباني، إلى الشرائح والمنصات والنماذج، وصولًا إلى التطبيقات التي ستنطلق بالصناعة بأكملها.
كل شيء يبدأ هنا، هذا العام يصادف مرور 20 سنة على ظهور CUDA. منذ 20 عامًا، ونحن نعمل على تطوير هذه البنية. هذا الاختراع الثوري سمح بكتابة رموز متعددة الخيوط باستخدام تعليمات واحدة، وهو أسهل من SIMD. أضفنا مؤخرًا Tiles لمساعدة المطورين على برمجة نوى Tensor والهياكل الرياضية الأساسية للذكاء الاصطناعي الحالية. هناك الآن آلاف الأدوات والمترجمات والأطر والمكتبات، وعشرات الآلاف من المشاريع المفتوحة المصدر، وCUDA مدمجة بعمق في كل منظومة. أصعب شيء هو حجم التثبيتات الضخم.
بنينا على مدى 20 عامًا مليارات من وحدات GPU وأنظمة الحوسبة التي تعمل بـ CUDA، تغطي كل سحابة وشركة حوسبة، وتخدم تقريبًا كل صناعة. حجم التثبيت هو القوة الدافعة التي تسرع العجلة. هذا الحجم يجذب المطورين، الذين يبتكرون خوارزميات جديدة مثل التعلم العميق، التي تفتح أسواقًا جديدة وتبني منظومات بيئية، مما يزيد من حجم التثبيتات. هذا التأثير يتسارع الآن، وتحميل مكتبات NVIDIA ينمو بسرعة مذهلة. هذا لا يدعم فقط المنصات، بل يمنحها عمرًا طويلًا جدًا.
مع وجود العديد من التطبيقات التي تعمل على CUDA، نحن ندعم كل مراحل دورة حياة الذكاء الاصطناعي وكل منصات معالجة البيانات، لتسريع الحلول العلمية. هذا التنوع يجعل عمر التثبيتات طويلًا جدًا، حتى أن بنية Ampere التي صدرت قبل ست سنوات لا تزال تتزايد في الأسعار بالسحابة. حجم التثبيت، وتأثير العجلة، وتغطية المطورين الواسعة، مع تحديثات برمجية مستمرة، كلها تخفض تكلفة الحوسبة. التسريع يسرع الأداء، ومع استمرار تحديث البرمجيات، يحصل المستخدمون على تحسينات مستمرة في الأداء وتخفيض التكاليف. بفضل حجم التثبيت، تحديثاتنا تصل لملايين من وحدات GPU، وتنتشر عالميًا. هذا التفاعل يعزز تأثير منصة الحوسبة، ويخفض التكاليف، ويخلق فرص نمو جديدة — وهذه هي قيمة CUDA.
لكن رحلتنا بدأت قبل 25 عامًا مع GeForce. كانت GeForce حملتنا التسويقية الأهم، والكثيرون نشأوا معها. قبل أن يتمكنوا من شراءها، كان والداهم يدفعون، ليصبحوا مطورين ومبرمجين حقيقيين. GeForce أوجدت إنفيديا اليوم، وولدت CUDA. قبل 20 عامًا، أنشأنا أول معالج قابل للبرمجة، وهو Shader، ليجعل المعجلين قابلين للبرمجة. بعد خمس سنوات، وُجدت CUDA، واستثمرنا كل أرباح الشركة في نشر CUDA على كل حاسوب. بعد 20 عامًا و13 جيلًا، أصبحت CUDA في كل مكان. قبل عشر سنوات، أطلقنا RTX، وأعدنا تصميم البنية لعصر الرسوميات الحديثة. GeForce أدخلت CUDA للعالم، وفتحت الباب لثورة الذكاء الاصطناعي، التي بدأت قبل عشر سنوات عندما دمجنا تقنيات التظليل القابلة للبرمجة، وأدخلنا تتبع الأشعة في الأجهزة، واعتقدنا أن AI ستغير تمامًا علم الرسوميات. الآن، بعد أن جلبت GeForce AI للعالم، فإن AI يعيد تشكيل الرسوميات.
اليوم، سأعرض التقنية الجديدة للرسوميات — وهي الرندرة العصبية، أو DLSS 5.0، التي تدمج بين الرسوميات ثلاثية الأبعاد، والبيانات الهيكلية، والذكاء الاصطناعي التوليدي. ندمج البيانات الهيكلية مع AI التوليدي لإنتاج محتوى جميل وقابل للتحكم. هذا المفهوم سيؤثر على جميع الصناعات، والبيانات الهيكلية هي أساس الذكاء الاصطناعي الموثوق.
بعد ذلك، سنناقش البيانات الهيكلية بالتفصيل. أنظمة مثل SQL وSpark وPandas وVelox وSnowflake وDatabricks وAmazon EMR وAzure Fabric وGoogle BigQuery تتعامل مع جداول البيانات. هذه الجداول تشبه جداول البيانات العملاقة، وتحفظ البيانات الأساسية للمؤسسات والأعمال. كنا نعمل على تسريع معالجة البيانات الهيكلية، لتشغيل الشركات بكفاءة أكبر وتكلفة أقل. في المستقبل، ستستخدم AI هذه البيانات بسرعة فائقة. وهناك أيضًا قواعد البيانات غير الهيكلية، مثل قواعد البيانات الشعاعية، وملفات PDF، والفيديو، والخطب، التي تمثل 90% من البيانات التي تُنتج سنويًا. حتى الآن، كانت صعبة الفهم والبحث فيها بسبب عدم وجود فهارس سهلة، ولم تكن قابلة للاستعلام بكفاءة.
الآن، نستخدم AI لحل هذه المشكلة. عبر تقنيات الإدراك المتعدد، يمكن لـ AI قراءة ملفات PDF وفهمها، ودمجها في أنظمة بحث واستعلام أوسع. لهذا، أنشأنا مكتبتين أساسيتين: cuDF لمعالجة البيانات الهيكلية، وcuVS لتخزين الشعاع والبيانات غير الهيكلية. هاتان المنصتان ستصبحان الأهم في المستقبل، ونحن ندمجهما بعمق في شبكات معالجة البيانات العالمية.
اليوم، سنعلن عن عدة تعاونات مهمة. IBM، مبتكرة لغة SQL، تستخدم cuDF لتسريع WatsonX. قبل 60 عامًا، أطلقت IBM نظام System/360، الذي وضع أساس الحوسبة الحديثة، ثم ظهرت SQL ومستودعات البيانات. الآن، مع إنفيديا، نستخدم مكتبات GPU لتسريع محرك SQL الخاص بـ WatsonX.data، مما يعيد تعريف معالجة البيانات في عصر الذكاء الاصطناعي. مع أن أنظمة CPU الحالية لا تلبي متطلبات الوصول السريع إلى مجموعات البيانات الضخمة، يجب على الشركات أن تتغير. على سبيل المثال، نوتشنيت تملك آلاف القرارات اللوجستية يوميًا، وتحديثاتها على CPU تكون ببطء، بينما على GPU من إنفيديا، تتسارع بمقدار 5 أضعاف، مع تقليل التكاليف بنسبة 83%.
لقد حلّ عصر الحوسبة المعجلة، وبدأنا نسرع عمليات البيانات السحابية والمحلية. تعاونت Dell، الرائدة في أنظمة التخزين، مع إنفيديا، لدمج cuDF وcuVS في منصة البيانات الذكية الخاصة بها. وتعاونت Google Cloud مع إنفيديا لتسريع Vertex AI وBigQuery. وفي تعاون مع Snapchat، خفضنا التكاليف بنسبة 80%. عندما تسرع الحوسبة ومعالجة البيانات، تحصل على السرعة، والنطاق، والأهم، التوفير في التكاليف. قانون مور كان يتوقع مضاعفة الأداء كل بضع سنوات، لكنه الآن يضعف. الحوسبة المعجلة تتيح لنا تجاوز ذلك.
إنفيديا، كشركة خوارزميات، تستخدم سوقها الواسع وحجم تثبيتاتها الضخم، لتحسين الخوارزميات باستمرار، وتقليل التكاليف، وتوسيع نطاقها. أنشأنا منصة الحوسبة المعجلة، وقدمنا مكتبات مثل RTX وcuDF وcuVS، ودمجناها في خدمات السحابة العالمية والمصنعين الأصليين. هذا التعاون يتكرر مع Google Cloud وSnapchat وغيرها. نحن فخورون بأعمالنا على JAX وXLA وPyTorch، ونعتبر أنفسنا المنصة الوحيدة التي تتفوق في جميع هذه الأطر. عملاؤنا من شركات مثل Baseten وCrowdStrike وPuma وSalesforce، ليسوا فقط زبائن، بل مطورون أيضًا.
نُدمج تقنيات إنفيديا في منتجاتهم، ونقودهم إلى السحابة. علاقاتنا مع مزودي السحابة تركز على جلب العملاء إليهم. معظم مزودي السحابة يرحبون بالتعاون معنا، لأننا نوفر تسريعًا مستمرًا للجميع. والأمر المثير هذا العام هو أننا سنُدخل OpenAI إلى AWS، مما سيدفع استهلاك السحابة ويزيد من قدرات الحوسبة لـ OpenAI.
على AWS، سرّعنا EMR وSageMaker وBedrock. وتعاونت إنفيديا مع AWS بشكل عميق، وهم أول شركائنا في السحابة. وفي Azure، بنينا أول حاسوب فائق من نوع A100، مما مهد الطريق لشراكة ناجحة مع OpenAI. تعاوننا مع Azure قديم، وقدمنا تسريعًا لخدماتها، وشاركنا في مشروع AIFoundry. مع توسع الذكاء الاصطناعي عالميًا، أصبحت مناطق Azure مهمة جدًا. نوفر تقنية مهمة هي الحوسبة السرية (Confidential Computing)، التي تضمن عدم تمكن المشغلين من الوصول أو الاطلاع على البيانات والنماذج. GPU من إنفيديا هو أول GPU يحقق ذلك، ويدعم نشر نماذج قيمة جدًا مثل OpenAI وAnthropic بأمان عبر السحابات والمناطق المختلفة. كل ذلك بفضل تقنية الحوسبة السرية.
في التعاون مع العملاء، يعد شركة Synopsis شريكًا مهمًا، ونعمل على تسريع جميع عملياتها في مجال EDA وCAU، وننشرها على Azure. نحن أول مورد لـ Oracle، وأول عميل لهم في الذكاء الاصطناعي. فخورون بأنني شرحت لهم مفهوم السحابة الذكية، وأصبحوا من أوائل عملائنا، ومنذ ذلك الحين، بدأوا في النمو. لدينا العديد من الشركاء، مثل Quark وCohere وFireworks وOpenAI. شركة CoreWeave، أول سحابة أصلية للذكاء الاصطناعي، توفر خدمات استضافة GPU، وتتمتع بسرعة نمو مذهلة.
وأتوقع أن نرى تعاونًا مع Palantir وDell لإنشاء منصة ذكاء اصطناعي جديدة — منصة Palantir Ontology، التي يمكن نشرها بالكامل في أي منطقة، حتى مع عزل فيزيائي (air-gapped). يمكن نشر الذكاء الاصطناعي في أي مكان تقريبًا. بدون قدرات الحوسبة السرية، وبدون بنية كاملة من الأدوات والنظام، لن يكون ذلك ممكنًا. هذه الأمثلة تظهر علاقاتنا الخاصة مع مزودي السحابة، وهم هنا اليوم، وأشكر جهودهم.
إنفيديا شركة متكاملة عموديًا، لكنها منفتحة أفقياً، وهذا هو الموضوع الذي يتكرر. السبب بسيط: التسريع لا يقتصر على الشرائح أو الأنظمة، بل على التطبيقات. إذا كانت مجرد سرعة الحاسوب، فهي مهمة المعالج المركزي، لكن المعالج المركزي لم يعد كافيًا. المستقبل يعتمد على تسريع التطبيقات والمجالات، أي على تسريع العمل. لذلك، يجب أن تطور إنفيديا مكتبات لكل صناعة ومجال.
كوننا شركة متكاملة، نحتاج لفهم عميق للتطبيقات، والمجالات، والخوارزميات. وعلينا أن نعرف كيف ننشرها في مراكز البيانات، والسحابة، والمحطات المحلية، والحافة، والروبوتات. من الرقائق إلى الأنظمة، نحن متكاملون عموديًا. لكن، لأننا منفتحون أفقياً، نحن الأقوى. ندمج برمجياتنا، ومكتباتنا، وتقنياتنا مع شركائنا، وننشرها على أي منصة، لننشر التسريع في كل مكان. هذا هو جوهر مؤتمر GTC.
نمتلك الآن مكتبات موجهة لمجالات محددة، لحل مشاكل الصناعة. على سبيل المثال، في القطاع المالي، تتجه المعاملات إلى التعلم العميق، وتحليل البيانات الضخمة، واكتشاف الأنماط، وهو وقت ثورة Transformer. في الرعاية الصحية، نستخدم AI في الأدوية، وتطوير وكلاء ذكيين للمساعدة في التشخيص. في الصناعة، نبني أكبر مصانع AI، ويشارك العديد من المصنعين في هذا الحدث. في الإعلام والترفيه، تدعم منصات AI الترجمة والبث والألعاب المباشرة والفيديو، ومعظم المحتوى يُعزز بواسطة AI. في مجال الكم، 35 شركة تستخدم منصة Holoscan لبناء أنظمة كمومية هجينة. في البيع بالتجزئة، نستخدم إنفيديا لتحسين سلاسل التوريد، ونبني أنظمة تسوق ووكلاء خدمة.
وفي مجال الروبوتات، نعمل منذ عشر سنوات على تطوير أنظمة روبوتية، ونتعاون مع جميع الشركات الكبرى. في هذا المعرض، عرضنا 110 روبوتات. في الاتصالات، نعمل على تحديث أبراج الشبكة، وتحويلها إلى منصات بنية تحتية للذكاء الاصطناعي على الحافة. منصة AIRAN تتعاون مع Nokia وT-Mobile وغيرها.
كل ذلك يعتمد على مكتبات CUDA-X، التي تعتبر جوهر إنفيديا كشركة خوارزميات، وتفصلنا عن غيرنا. هذه المكتبات تتيح لنا حل مشاكل متنوعة، وتفعيل قدرات الحوسبة. في هذا المعرض، سنطلق العديد من المكتبات والنماذج، التي تُمكّن المطورين من التقدم في العلوم والهندسة. على سبيل المثال، cuDNN، وcuOPT، وcuLitho، وcuDSS، وParabricks، وغيرها، تساعد على الابتكار. كل شيء مبني على نماذج فيزيائية، ومحاكاة، ونماذج AI فيزيائية، لمحاكاة الواقع بشكل كامل. بفضل فهمنا للخوارزميات، ومنصاتنا، نحن نفتح فرصًا جديدة.
بالإضافة إلى الشركات الكبرى، ظهرت شركات ناشئة مثل OpenAI وAnthropic، التي تعتمد على حسابات ضخمة، وتحتاج إلى قدرات حوسبة هائلة، وتوليد توكنات بكميات كبيرة. مثل Google وAmazon وMeta، نحن في بداية تحول جديد، وسنظهر شركات جديدة ذات تأثير كبير.
السنوات الماضية شهدت ثلاث معالم: أولًا، ChatGPT، الذي أطلق عصر الذكاء الاصطناعي التوليدي، وأصبح قادرًا على الفهم، والترجمة، والإبداع. ثانيًا، التحول من استرجاع المعلومات إلى توليد المحتوى، مما غير بنية الحوسبة. ثالثًا، ظهور الذكاء الاستنتاجي، الذي يمكنه التفكير، والتحليل، والتأكد من صحة المعلومات، مما جعله أكثر موثوقية. هذا زاد من استخدام التوكنات، ورفع الطلب على الحوسبة. وظهور ClaudeCode، الذي يقرأ الملفات، ويكتب الشفرات، ويختبر، ويكرر، ويغير قواعد البرمجة.
نحن نستخدم جميعًا أدوات AI من إنفيديا، مثل ClaudeCode وCodex وCursor، لمساعدتنا على البرمجة. لم نعد بحاجة للسؤال: “ماذا يفعل AI؟”، بل نتركه يبتكر وينفذ بناءً على السياق. AI تطور من الإدراك إلى التوليد، ثم إلى الاستنتاج، وأصبح الآن يعمل بكفاءة عالية. مع قدرة AI على الإنتاج، زاد الطلب على وحدات GPU بشكل غير مسبوق، رغم أننا نُصدر كميات هائلة.
AI الآن يحتاج إلى التفكير، والعمل، والقراءة، وكل ذلك يتطلب استنتاجًا منطقيًا. لقد تجاوزنا مرحلة التدريب، ونحن الآن في مرحلة الاستنتاج، حيث زاد الطلب على الحوسبة بمقدار 10,000 ضعف. خلال العامين الماضيين، زاد الطلب على الحوسبة بمقدار 10,000 ضعف، والاستخدام زاد بمقدار 100 ضعف. نعتقد أن الطلب على الحوسبة زاد مليون ضعف، وهو شعور مشترك بين كل شركة ناشئة، وOpenAI، وAnthropic. إذا زادت القدرة على الحوسبة، زاد إنتاج التوكنات، وارتفعت الإيرادات، وأصبحت AI أكثر ذكاءً.
نحن الآن في دورة دفع إيجابية، حيث وصلنا إلى نقطة التحول في الاستنتاج. قبل عام، قلت إن الطلب على Blackwell وRubin سيصل إلى 500 مليار دولار بحلول 2026، رغم أن السوق قد لا يركز على هذا الرقم، لكن الآن أقول إن الرقم سيصل إلى تريليون دولار على الأقل بحلول 2027. في الواقع، سنواجه نقصًا في القدرة، والطلب سيتجاوز ذلك بكثير.
لقد عملنا كثيرًا خلال العام الماضي، و2025 ستكون سنة الاستنتاج لشركة إنفيديا. نريد أن نكون متميزين في كل مراحل الذكاء الاصطناعي، والاستثمار في البنية التحتية يدوم طويلًا، ومنتجاتنا ذات عمر طويل وتكلفة منخفضة. بلا شك، أنظمة إنفيديا هي الأرخص عالميًا. كل شيء العام الماضي كان عن الاستنتاج، وهو ما أدى إلى نقطة التحول. شركات مثل Anthropic وMeta، ومنصات Llama، اختارت إنفيديا، لأنها الأفضل. أنشأنا منصة عالمية تدعم جميع اللغات، وتغطي مجالات مثل البيولوجيا، والرسوميات، والرؤية، والصوت، والبروتينات، والكيمياء، والروبوتات، من الحافة إلى السحابة، بأقل تكلفة وأعلى موثوقية.
مع حجم بنية تحتية بقيمة تريليون دولار، يجب أن نضمن الأداء العالي، والتكلفة المنخفضة، والعمر الطويل. يمكنك الاعتماد على إنفيديا، سواء في السحابة أو في الموقع أو في أي مكان. نحن منصة حوسبة لكل AI، وهذا واضح في أعمالنا. 60% من أعمالنا مع أكبر خمسة مزودي سحابة، وبعضها للاستخدام الداخلي. أنظمة التوصية والبحث تنتقل من الطرق التقليدية إلى التعلم العميق والنماذج اللغوية الكبيرة، وتستخدم وحدات GPU من إنفيديا. نحن نعمل مع مختبرات AI، ونمتلك منظومة بيئية ضخمة، وننقل القدرة إلى السحابة، وتُستهلك بسرعة. 40% من أعمالنا في المناطق، والخصوصية، والصناعة، والروبوتات، والحافة، والحوسبة الفائقة. انتشار AI وتنوعه هو قوته، وأصبح تقنية أساسية، ومنصة حوسبة جديدة.
مهمتنا أن نستمر في التقدم. العام الماضي، كان سنة الاستنتاج، وحققنا قفزات مع بنية Hopper، وقررنا إعادة تصميم النظام بشكل كامل، وابتكرنا NVLINK-72. غيرنا طريقة التصنيع والبرمجة، وحققنا قفزات في الأداء والكفاءة. مع NVFP4، وDynamo، وTensorRT-LLM، وبناء حاسوب DGX Cloud، استثمرنا مئات الملايين. الاستنتاج هو المفتاح، وهو مصدر الدخل الرئيسي. البيانات تظهر أن استهلاك الطاقة لكل توكن مهم جدًا، وكل مركز بيانات محدود بالقدرة. يجب أن ننتج أكبر قدر من التوكنات بأقل طاقة، ونصل إلى قمة الكفاءة.
سرعة الاستنتاج تؤثر على سرعة الاستجابة، وكلما كانت أسرع، زاد عدد التوكنات التي يمكن معالجتها، وزادت ذكاء النظام. كل جزء من AI يجب أن يستنتج أثناء التفكير والعمل. لقد تجاوزنا مرحلة التدريب، ونحن الآن في مرحلة الاستنتاج، حيث زاد الطلب بشكل هائل. الطلب على الحوسبة زاد بمقدار 10,000 ضعف خلال العامين الماضيين، والاستخدام زاد بمقدار 100 ضعف. نعتقد أن الطلب الحقيقي زاد مليون ضعف، وهو شعور مشترك بين الشركات الناشئة وOpenAI وAnthropic. إذا زادت القدرة، زاد الإنتاج، وارتفعت الأرباح، وأصبح AI أكثر ذكاءً.
نحن في دورة دفع إيجابية، ونقطة التحول في الاستنتاج قد وصلت. قبل عام، توقعت أن الطلب على Blackwell وRubin سيصل إلى 500 مليار دولار بحلول 2026، لكن الآن أقول إنه سيصل إلى تريليون دولار على الأقل بحلول 2027. في الواقع، سنواجه نقصًا في القدرة، والطلب سيتجاوز ذلك بكثير.
عملنا كثيرًا خلال السنة الماضية، و2025 ستكون سنة الاستنتاج. نريد أن نكون متميزين في كل مراحل AI، والاستثمار في البنية يدوم طويلًا، ومنتجاتنا ذات عمر طويل وتكلفة منخفضة. أنظمتنا هي الأرخص عالميًا. كل شيء العام الماضي كان عن الاستنتاج، وهو ما أدى إلى نقطة التحول. شركات مثل Anthropic وMeta، ومنصات Llama، اختارت إنفيديا، لأنها الأفضل. أنشأنا منصة عالمية تدعم جميع اللغات، وتغطي مجالات مثل البيولوجيا، والرسوميات، والرؤية، والصوت، والبروتينات، والكيمياء، والروبوتات، من الحافة إلى السحابة، بأقل تكلفة وأعلى موثوقية.
مع حجم بنية تحتية بقيمة تريليون دولار، يجب أن نضمن الأداء العالي، والتكلفة المنخفضة، والعمر الطويل. يمكنك الاعتماد على إنفيديا، سواء في السحابة أو في الموقع