العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
H200 الصين السوق على وشك زيادة الحجم! CUDA يدعم الطلب القوي إنفيديا(NVDA.US)إمبراطورية AI تستعد لـ“الخبر السار الإضافي”
“超級AI芯片霸主”(英伟达(NVDA.US))首席执行官黄仁勋表示,该芯片巨头正为中国市场的客户们启动基于2022年3月推出的Hopper架构的H200 AI训练/推理加速器的量产步伐,这也表明这家美国芯片公司重返中国这一至关重要AI算力基础设施市场的努力取得了积极进展。
毫无疑问的是,如果面临25%额外费用/美国政府关税成本的H200真能较大规模流向中国市场,在英伟达当前股价轨迹持续处于横盘震荡的背景下,对英伟达基本面扩张前景而言可谓是实质性的增量利好,毕竟英伟达无论是官方的季度业绩指引还是在周一GTC大会上刚刚给出的截至2027年至少万亿美元“超级AI蓝图”均未考虑到中国市场创收前景。
黄仁勋在英伟达GTC大会上发表重磅演讲并向全球投资者们重磅公布下一代AI算力基础设施——Vera Rubin架构AI算力体系之后,在当地时间周二的一场新闻发布会上,黄仁勋表示,英伟达已经获得美国政府许可,可向“中国市场的许多大型客户”销售H200 AI芯片,目前正处于“重启我们的大规模制造”的进程中。他强调,这一前景与几周前已经截然不同。
"我们的H200供应链正在被重新启动,"黄仁勋在加利福尼亚州圣何塞举行的英伟达年度GTC大会期间的一场活动上表示。该芯片公司CEO黄仁勋此前一天在GTC大会揭幕式演讲上重磅发布了一系列新产品,并且向投资者们提供了财务基本面层面的更新指引。
英伟达近年来一直在努力恢复其AI芯片在中国市场的销售。由于美国政府对于中国长期以来的芯片出口限制,这一英伟达曾经依赖的庞大市场事实上几乎已对这类AI算力基础设施产品实质性长期关闭。
在 ظلّ ضغط رسوم جمركية إضافية بنسبة 25% من الحكومة الأمريكية لـH200
ومع ذلك، منذ هذا العام، بدأت إدارة ترامب بالسماح لشركة英伟达 وشدّيد منافسها الأقوى AMD(AMD.US) ببيع نسخ أضعف من شرائح الذكاء الاصطناعي في السوق الصينية، لكن ذلك ما يزال يتطلب الحصول على ترخيص رسمي من الحكومة الأمريكية ويواجه رسومًا جمركية إضافية بنسبة 25% تفرضها الحكومة الأمريكية.
تسمح الحكومة الأمريكية بتصدير H200 من英伟达 إلى الصين بشروط محددة، وتُعتبر رسوم/جمارك بنسبة 25% بمثابة “مقابل”. يمثل هذا الترتيب في الواقع تنازلاً سياسياً، أي أنه يسمح بالتصدير ويتيح في الوقت نفسه تحصيل عائدات من خلاله. بالمقارنة، لا تزال المنتجات عالية المستوى مثل معمارية Blackwell وسلسلة AMD Instinct MI450 وما شابهها تُعدّ على مستوى سياسات الولايات المتحدة تقنيات أكثر حساسية، وبالتالي لم يتم منحها حتى الآن أو أنها ليست ضمن نطاق تراخيص التصدير الحالية. وهذا يعني أنها غير مسموح بتصديرها من الأساس، وبالتالي لا ينطبق عليها مثل هذا السياسات الجمركية.
يجب ملاحظة أن سياسة الرسوم الجمركية هذه على أشباه الموصلات الخاصة بـ英伟达 وAMD تستبعد الشرائح المستخدمة لمراكز بيانات داخل الولايات المتحدة وأجهزة المستهلك والوظائف الصناعية؛ أي أن هذه الرسوم لا تنطبق على H200/MI325X التي يتم إدخالها مباشرة للاستخدام داخل الولايات المتحدة.
حالياً، لم تقم英伟达 بإدخال أي توقعات لإيرادات من نوع مراكز البيانات في السوق الصينية ضمن سيناريوهاتها المالية. وفي الوقت الراهن، تُعد وحدة الأعمال الخاصة بمراكز البيانات هي أكثر أقسام الأعمال الأساسية في英伟达، إذ إنها توفر لمراكز البيانات حول العالم بنية AI GPU فائقة القوة مبنية على H100/H200 وBlackwell/Blackwell Ultra، لتقديم بنية تحتية لحوسبة AI على مستوى قوي للغاية.
في مؤتمر مكالمات الأرباح الذي عقدته الشركة الشهر الماضي، ذكرت أنها حصلت حينها فقط على ترخيص مبدئي واحد من الحكومة الأمريكية لإرسال كميات محدودة من شرائح AI من نوع H200 إلى السوق الصينية. ورغم أن الأداء الشامل لـH200 أقل بكثير من شرائح AI من نوع Blackwell/Blackwell Ultra التي تستخدمها英伟达 حالياً للتدريب وتشغيل نماذج الذكاء الاصطناعي الكبيرة، فإنها ما تزال تحظى بشعبية كبيرة في السوق الصينية الخاضعة للقيود بسبب كفاءتها القوية في الاستدلال AI، إضافةً إلى منظومة CUDA التي تجتاح مجتمع مطوري الذكاء الاصطناعي عالمياً، وكذلك سهولة النشر.
كانت الصين تشكل في فترة سابقة ربع إجمالي إيرادات英伟达، لكنها اليوم لا تمثل سوى جزء صغير جداً. وعلى الرغم من أن الطلب في دول العالم على شرائح AI من英伟达 ما يزال قوياً للغاية، فإن هذا البلد الآسيوي، دون شك، يبقى أكبر سوق منفرداً لأشباه الموصلات على مستوى العالم من حيث الحجم، ما يجعله بالغ الأهمية لازدهار الأساسيات طويلة الأجل لـ英伟达.
في وقت مبكر من ديسمبر الماضي، حصلت英伟达 على ترخيص شفهي من الرئيس الأمريكي دونالد ترامب يسمح لها ببيع H200 إلى جزء من العملاء الصينيين، لكن الشركة حتى الآن لم تؤكد أي إيرادات من H200 القادمة من السوق الصينية ضمن هذه التراخيص. كما وضع صانعو قواعد التصنيع والرسوم الجمركية في واشنطن عدداً من العوائق الإضافية التي تبطّئ إجراءات الموافقة الرسمية، مما يجعل احتمال استعادة المبيعات الخالية من القيود بالكامل غير كبير.
وبما أن هوانغ رينجين، وفقاً لأحدث تصريحاته، قال إن شرائح AI من نوع H200 حالياً في “مرحلة إعادة تشغيل التصنيع على نطاق واسع”، فقد تؤكد英伟达 قريباً بيانات إيرادات H200 القادمة من السوق الصينية.
ذكرَت تقارير إعلامية في وقت سابق أن شرائح AI من نوع H200 المرسلة إلى السوق الصينية تحتاج إلى الخضوع لفحوصات أمريكية روتينية إضافية، ويتم فرض رسوم جمركية قدرها 25% بالكامل. كما كانت مسؤولو الحكومة الأمريكية يفكرون في وضع حد للكمية التي يمكن لكل عميل صيني شراؤها من شرائح AI من نوع H200 عند 75,000 شريحة، بحيث يصل إجمالي الشحنات الأعلى إلى 1,000,000 شريحة معالجة.
الطلب في السوق الصينية على شرائح AI من نوع H200 من المرجح جداً أن يكون قوياً جداً بحد ذاته، لكن جوهر ما يقيّد إتمام الصفقات ليس الطلب، بل سياسات الحكومة الأمريكية وخطوات الموافقة. وكانت تقارير إعلامية قبل فترة قد ذكرت أن شركات التكنولوجيا الصينية تجاوزت بالفعل متطلبات الطلب الفعلي لشرائح AI من نوع H200 التي تعتمد عليها منذ 2026 حاجز 200 مليون شريحة، بينما لم تكن مخزون英伟达 آنذاك سوى نحو 700,000 شريحة H200.
السوق الصينية—زيادة كبيرة في المكاسب لـ英伟达
في يوم الثلاثاء، انخفض سهم英伟达 بنسبة 0.7% حتى نهاية جلسة تداول السوق الأمريكية إلى 181.93 دولار، ما يجعله يسجل تراجعاً تراكميًا بنسبة 2.5% منذ بداية العام، متخلفاً عن مؤشر S&P 500.
من زاوية توقعات الأساسيات، إذا تمكنت شرائح AI من نوع H200 فعلاً من التدفق إلى السوق الصينية على نطاق أكبر نسبياً، فإن ذلك سيكون زيادة معنوية إيجابية لـ英伟达، إذ كانت الصين سابقاً تمثل حوالي ربع إيرادات英伟达، لكنها الآن لم تعد تمثل إلا جزءاً صغيراً. إضافة إلى ذلك، فإن توقعات الأداء القوية للربع الحالي التي قدمتها英伟达 في شهر فبراير لم تتضمن أي توقعات لإيرادات مراكز البيانات الصينية، كما أن نظرتها الأخيرة لإيرادات مراكز البيانات الصينية لا تزال صفرًا. وهذا يعني أنه طالما يبدأ شحن H200 في العودة إلى وضعه الطبيعي، وحتى لو لم يتم رفع القيود بالكامل، فسيشكل ذلك مساحة تعديل صعودي على مستوى الزيادة في نماذج تقييم英伟达 وتوقعات نمو السوق الحالية.
من حيث الأداء الإجمالي على مستوى البنية، فإن H200 يتأخر بلا شك عن Blackwell الحالي، وخصوصاً عن Vera Rubin التي أعلن هوانغ رينجين للتو أنها ستبدأ الإنتاج في نهاية العام. تنتمي H200 إلى معمارية Hopper الكلاسيكية، ومواصفات كل شريحة هي 141GB HBM3e و4.8TB/s من عرض النطاق الترددي، وقرابة 4 PFLOPS FP8؛ وفي المقابل، عرضت英伟达 رسمياً بالفعل أن GB200 NVL72 مقارنة بـHopper H200 يمكن أن تحقق ميزة تفوق ما يصل إلى 15 ضعفاً من حيث الأداء/فرص الإيرادات في بعض سيناريوهات الاستدلال. والأبعد من ذلك، فإن الخطاب الرسمي لـVera Rubin يشير إلى تحسن بمقدار 10 أضعاف في الأداء لكل واط، وتحسن بمقدار 10 أضعاف في تكلفة الـtoken الأقل، مقارنةً بـBlackwell. لكن هذا لا يبدو أنه يمنع H200 من أن تلبي بشكل ملائم احتياجات السوق الصينية الواقعية الخاضعة للعقوبات حالياً.
يشكل أداء H200 حوالي 6 أضعاف أداء منتج شرائح AI الذي كانت英伟达 قد أطلقته سابقاً خصيصاً للسوق الصينية—H20. ومع موجة الاستدلال الضخمة الحالية للذكاء الاصطناعي عالمياً، فإن ما تحتاجه الشركات فعلياً هو مجموعة من الشرائح الناضجة التي يمكن نشرها فوراً، وتشغيل استدلال نماذج الذكاء الاصطناعي، مع سعة ذاكرة أكبر وعرض نطاق أعلى.
يتطلب جانب التدريب في AI، الذي تكاد تسيطر عليه شرائح AI GPU من英伟达 بالكامل، قوة حوسبة أكبر ومرونة أعلى في تجميعات حوسبة AI العامة، إلى جانب القدرة على التطور السريع في منظومة الحوسبة بأكملها. أما جانب الاستدلال، وبعد التنفيذ على نطاق واسع للتقنيات المتقدمة في الذكاء الاصطناعي، فيفضل أكثر تكلفة الـtoken للوحدة، وزمن التأخير، وكفاءة الطاقة. “لقد وصل عصر الاستدلال للذكاء الاصطناعي،” قال هوانغ رينجين يوم الاثنين في مؤتمر GTC. “وبالإضافة إلى ذلك، فإن احتياجات الاستدلال ما تزال في ارتفاع،” أضاف.
لذلك، فإن H200 بسعة 141GB من HBM3e تظل جذابة جداً بالنسبة لاستدلال AI في مجموعات الترتيب طويلة السياق، والـbatch بالحجم الأكبر، وتعزيزات التعرّف عبر الاسترجاع (retrieval enhanced)، إضافة إلى مجموعات استدلال AI واسعة النطاق وعالية الكفاءة التي يتم نشرها على نطاق مؤسسي. ومع وجود دفع قوي للطلب ناتج عن منظومة CUDA، تظل بالنسبة للسوق الصينية عبارة عن “قدرة حوسبة عالية المستوى قابلة للاستخدام في ظل شروط مقيدة”. وفي الوقت نفسه، فإن CUDA وCUDA-X، وتكيّف النماذج الجاهزة، وسلسلة أدوات التطوير، وخبرة التشغيل والصيانة، تُقلّل بشكل واضح تكلفة ترحيل العملاء الصينيين وتكلفة التطبيق على أرض الواقع.
بالنسبة لأموال المؤسسات في وول ستريت، فهذه ليست سردية “قيام英伟达 بقلب الطاولة عبر السوق الصينية”؛ بل هي إضافة إلى خط الأساس الخاص ببنية تحتية عالمية لحوسبة AI، وهو خط قوي جداً أصلاً، تتمثل في وجود مساحة صعود للطلب في السوق الصينية قد يتم التقليل من قيمتها بشكل كبير.
أظهر الرئيس التنفيذي لـ英伟达، هوانغ رينجين، في مؤتمر GTC في فجر 17 مارس بتوقيت بكين، “مخطط إيرادات خارق لحوسبة AI” لم يسبق له مثيل في مجال البنية التحتية لحوسبة AI؛ إذ أخبر المستثمرين العالميين أنه، في ظل الطلب القوي على قدرات حوسبة GPU وفقاً لمعمارية Blackwell، وكذلك مع الدفع بطلب أكثر انفجاراً على منظومة حوسبة AI لمعمارية Vera Rubin التي يجري إنتاجها قريباً على نطاق واسع، فإن حجم الإيرادات المستقبلية في مجال شرائح الذكاء الاصطناعي قد يصل بحلول عام 2027 إلى ما لا يقل عن 1 تريليون دولار، وهو أعلى بكثير من “مخطط البنية التحتية لحوسبة AI” الذي تم طرحه في آخر مؤتمر GTC بقدرة على تحقيق 5000 مليار دولار بحلول 2026.
عندما تدفع أحجام النماذج وسلاسل الاستدلال والعبء الوظيفي المتعدد الوسائط/الوكيل (Agentic AI) إلى توسع استهلاك الحوسبة بشكل أسي، فإن الخط الرئيسي للمصاريف الرأسمالية لدى عمالقة التكنولوجيا يميل أكثر إلى تركيز الاستثمارات على البنية التحتية لحوسبة AI. بل إن المستثمرين العالميين يواصلون أيضاً، من خلال “سردية سوق ثور AI” التي تتمحور حول英伟达 ومجموعات TPU التابعة لـ谷歌، وتوقعات تسليم مجموعات حوسبة AI مع جولات منتجات جديدة من AMD، تثبيت هذه السردية بوصفها واحدة من أكثر روايات الاستثمار في وضع السوق المزدهر تأكداً بين أسواق الأسهم العالمية. وفي الوقت نفسه، يعني ذلك أن ثيمات الاستثمار المرتبطة ارتباطاً وثيقاً بتدريب/استدلال AI، مثل سلاسل توريد أنظمة الكهرباء والتبريد السائل والربط الضوئي المتداخل (optical interconnect)، ستواصل البقاء ضمن أكثر قطاعات الاستثمار سخونة في سوق الأسهم، بينما يواجه رواد حوسبة AI مثل英伟达 وAMD و博通 و台积电 و美光 حالة من عدم اليقين في المشهد الجيوسياسي للشرق الأوسط.
يرى عمالقة وول ستريت مثل Morgan Stanley وCitigroup وLoop Capital وWedbush أنه لم تنتهِ بعد موجة استثمارات البنية التحتية للذكاء الاصطناعي العالمية التي يكون فيها hardware لحوسبة AI هو المحور الأساسي. إذ إنها ما تزال في بدايتها فقط؛ ومع استمرار دفع “عاصفة الطلب على قدرات الحوسبة في جانب الاستدلال للذكاء الاصطناعي” غير المسبوقة، يُتوقع أن يصل حجم موجة استثمارات البنية التحتية للذكاء الاصطناعي العالمية ككل المستمرة حتى 2030 إلى ما بين 3 تريليونات و4 تريليونات دولار.