Ark Invest: الحالة الراهنة والمستقبل للبنية التحتية للذكاء الاصطناعي

المصدر: فرانك داونينج، آر كيه إنفست؛ الترجمة: كوين إكسبلورر

إنفاق البنية التحتية للذكاء الاصطناعي يشهد نموًا هائلًا

منذ إصدار ChatGPT، خلال الثلاث سنوات الماضية، زاد الطلب على الحوسبة المعجلة بشكل كبير. ارتفعت إيرادات نيفيديا السنوية تقريبًا 8 أضعاف، من 27 مليار دولار في 2022 إلى 216 مليار دولار في 2025، ويتوقع السوق أن تنمو مرة أخرى بنسبة 62% في 2026، لتصل إلى 350 مليار دولار. استثمارات أنظمة مراكز البيانات العالمية (بما في ذلك أجهزة الحوسبة، الشبكات، والتخزين) تسارعت من معدل سنوي قدره 5% خلال العقد حتى 2022 إلى 30% خلال الثلاث سنوات الماضية، ومن المتوقع أن تتجاوز 30% في 2026، لتصل إلى 653 مليار دولار.

تشير أبحاث آر كيه إلى أن الحوسبة المعجلة المدفوعة بواسطة وحدات معالجة الرسوم (GPU) والدوائر المتكاملة الخاصة بالذكاء الاصطناعي (ASIC) أصبحت الآن المسيطرة على استثمارات الخوادم، حيث تمثل 86% من مبيعات خوادم الحوسبة.

انخفاض التكاليف يدفع نحو الاعتماد على المعجلة

الدافع وراء استمرار زيادة الإنفاق على البنية التحتية المعجلة لتشغيل نماذج الذكاء الاصطناعي، هو التوسع المستمر في استخدامات الذكاء الاصطناعي التوليدي على المستويين الاستهلاكي والمؤسسي، بالإضافة إلى الحاجة لتدريب نماذج أساسية أكثر ذكاءً في سعيها نحو “الذكاء الفائق”.

انخفاض التكاليف بسرعة يعزز النمو في الطلب. وفقًا لدراستنا، تنخفض تكاليف تدريب الذكاء الاصطناعي بنسبة 75% سنويًا. أما تكاليف الاستدلال فهي تنخفض بشكل أسرع — ففي اختبارات Benchmark التي تتبعها Artificial Analysis، تجاوزت نسبة النماذج التي حصلت على تقييم يزيد عن 50%، متوسط انخفاض التكاليف السنوي بنسبة تصل إلى 95%.

قوتان تدفعان بانخفاض التكاليف بشكل كبير: الأولى هي إطلاق الشركات الرائدة مثل نيفيديا منتجات جديدة سنويًا، مما يرفع أداء الأجهزة جيلًا بعد جيل؛ والثانية هي تحسينات الخوارزميات على مستوى البرمجيات، التي تزيد من كفاءة التدريب والاستدلال على نفس الأجهزة.

المستهلكون والشركات يرسلون إشارات طلب قوية

سرعة اعتماد المستهلكين للذكاء الاصطناعي تتجاوز بكثير سرعة اعتمادهم للإنترنت في ذلك الوقت. وصلت نسبة انتشار الذكاء الاصطناعي خلال ثلاث سنوات إلى حوالي 20%، وهو أكثر من ضعف سرعة انتقال المستهلكين إلى الإنترنت.

كما أن الطلب من قبل الشركات يتزايد بسرعة مذهلة. على سبيل المثال، من بيانات OpenRouter، منذ ديسمبر 2024، زاد الطلب على الرموز (tokens) بمقدار 28 مرة.

خلال العامين الماضيين، حققت مختبرات الذكاء الاصطناعي التي يفضلها العملاء مثل Anthropic نموًا مذهلاً في الإيرادات يقارب 100 ضعف — من 100 مليون دولار سنويًا في نهاية 2023 إلى تقديرات تتراوح بين 8 و10 مليارات دولار في نهاية 2025. واستمر النمو في 2026، حيث أعلنت في فبراير عن إيرادات سنوية بلغت 14 مليار دولار، وأتمت جولة تمويل بقيمة 30 مليار دولار، بقيمة سوقية تصل إلى 380 مليار دولار.

وفي ظل المنافسة بين المستهلكين والشركات، حققت OpenAI، التي تنافس على كلا الجبهتين، نموًا قويًا في قاعدة العملاء المؤسساتيين، حيث بلغ عدد العملاء المؤسساتيين مليون شركة حتى نوفمبر 2025. ووفقًا للمديرة المالية سارة فريار، فإن إيرادات الشركة من الأعمال المؤسساتية تتزايد بسرعة أكبر من الأعمال الاستهلاكية، ومن المتوقع أن تمثل 50% من إجمالي إيراداتها في 2026. وأوضحت فريار في مدونة في يناير 2026 أن سبب المزيد من الاستثمارات في البنية التحتية هو أن إيرادات OpenAI تتناسب طرديًا مع قدرتها الحاسوبية، خلال الثلاث سنوات الماضية.

التمويل الخاص يدعم بناء الذكاء الاصطناعي

لتلبية الطلب القوي، أصبح الاستثمار في البنية التحتية الضخمة ضرورة. وفقًا لبيانات Crunchbase، تجاوز تمويل المختبرات الخاصة للذكاء الاصطناعي 200 مليار دولار في 2025، منها حوالي 80 مليار دولار توجه لمطوري النماذج الأساسية مثل OpenAI وAnthropic وxAI. في السوق العامة، تستخدم شركات الحوسبة السحابية الكبرى احتياطياتها النقدية، وتبحث عن طرق تمويل أخرى لدعم خطط إنفاقها على رأس المال للذكاء الاصطناعي — ومن المتوقع أن تصل هذه النفقات إلى 700 مليار دولار في 2026.

وتشير التقارير إلى أن صفقة Meta مع Blue Owl بقيمة 30 مليار دولار تعتبر الأكبر من نوعها في التمويل الخاص. تم بناء الصفقة على شكل شركة مشتركة، مع تمويل ديون، وهيكلية شركة ذات غرض خاص (SPV) ستجعل ديون المشروع غير ظاهرة على ميزانية Meta، مما أثار جدلاً واسعًا.

AMD ومنافسون آخرون يشكلون تحديًا قويًا لنيفيديا

خارج مراكز البيانات المادية، كانت شرائح الحوسبة دائمًا محور الإنفاق على رأس المال للذكاء الاصطناعي. كانت نيفيديا دائمًا في طليعة عصر الحوسبة المعجلة، لكن الآن أكبر مشتري لشرائح الذكاء الاصطناعي يسعى لتعظيم القوة الحاسوبية مقابل كل دولار يُنفق. منذ استحواذها على ATI Technologies في 2006، ظلت AMD تنافس نيفيديا في سوق المستهلكين عبر بيع وحدات معالجة الرسوم، وأصبحت الآن منافسًا ناشئًا في السوق المؤسسي. منذ إطلاق سلسلة معالجات EPYC في 2017، زادت حصة AMD في سوق معالجات الخوادم من تقريبًا صفر إلى 40% في 2025.

بالنسبة للنماذج الصغيرة، أصبحت شرائح AMD GPU تتساوى مع نيفيديا من حيث التكلفة الإجمالية للملكية (TCO) والأداء. TCO يشمل تكلفة الشراء المبدئية (الإنفاق الرأسمالي) وتكاليف التشغيل خلال عمر الشريحة (الإنفاق التشغيلي). المعيار الأداء يعتمد على مؤشر InferenceMax من SemiAnalysis، الذي يقيس عدد الرموز التي يمكن لكل GPU معالجتها في الثانية عند تحسينه للعبء، بينما معيار التكلفة يعتمد على تقديرات SemiAnalysis للإنفاق الرأسمالي والتشغيلي لكل ساعة.

على الرغم من أن AMD قد اقتربت من أداء النماذج الصغيرة، إلا أن نيفيديا لا تزال تتفوق بشكل ملحوظ في أداء النماذج الكبيرة، كما يظهر في الصورة أدناه.

يعمل حل نيفيديا “Grace Blackwell” على ربط 72 من وحدات GPU من نوع Grace Blackwell (GB200) معًا، ليعمل كذاكرة مشتركة ضخمة. هذا الترابط الوثيق بين الشرائح يعزز قدرة الاستدلال على النماذج الكبيرة — التي تتطلب توزيع الأوزان على عدة وحدات GPU، وتحتاج إلى عرض نطاق تواصل أكبر. بهدف تقليل الفجوة قبل إصدار Vera Rubin من نيفيديا، تخطط AMD لإطلاق حلها على مستوى الحاوية (Rack-level) في النصف الثاني من 2026. حتى الآن، حصلت AMD على طلبات من عملاء مثل Microsoft وMeta وOpenAI وxAI وOracle.

الشركات السحابية الضخمة تقود ثورة الشرائح المخصصة

بالإضافة إلى موردي شرائح GPU التجارية، تسعى شركات السحابة الكبرى ومختبرات الذكاء الاصطناعي إلى تطوير شرائحها الخاصة للسيطرة على تأثير نيفيديا وتقليل تكاليف الحوسبة. على مدى أكثر من عقد، كانت Google تصمم شرائحها الخاصة المخصصة للذكاء الاصطناعي — وحدات المعالجة التنسورية (TPU) — لتشغيل نماذج التوصية في خدمات البحث، مع تحسين الأداء للذكاء الاصطناعي التوليدي في الجيل الأخير TPU v7. وفقًا لـ SemiAnalysis، يمكن أن تقلل Google من تكلفة كل عملية حسابية بنسبة 62% باستخدام شرائح TPU الخاصة بها، التي تصممها داخليًا. تستخدم Anthropic وMeta شرائح TPU من Google لتوسيع قدراتها الحاسوبية، مما يعزز تقديرات التوفير.

أما شركة أمازون، فشريحة Trainium تبدو حلاً متقدمًا نوعًا ما. بعد استحواذها على Annapurna Labs في 2015، طورت أمازون شرائح مخصصة لعملها السحابي، مع توسيع معالجات ARM-based Graviton ووحدات معالجة البيانات Nitro (DPU)، لدعم قدراتها الحاسوبية في AWS. وأعلنت مؤخرًا أن Graviton استمر للعام الثالث على التوالي في توفير أكثر من نصف القدرة الحاسوبية الجديدة في AWS. بالإضافة إلى استخدام TPU، تعتمد Anthropic على AWS وTrainium كمنصتي تدريب مفضلتين.

دخلت Microsoft مجال الشرائح المخصصة في 2023، بإطلاق معالج Maia 100، لكن لم تركز على الذكاء الاصطناعي التوليدي آنذاك. الآن، تطلق الجيل الثاني من المنتج، مع التركيز على سيناريوهات الاستدلال.

شركة Broadcom تهيمن على سوق خدمات الشرائح المخصصة

تركز Google وAmazon على تصميم الشرائح من ناحية الهيكل والوظائف، بينما تتولى الشركاء في التصميم الخلفي تحويلها إلى شرائح سيليكون، وإدارة التعبئة المتقدمة، والتنسيق مع شركات تصنيع الرقائق مثل TSMC. في ظل التحديات التي تواجه أعمال تصنيع الرقائق من Intel، أصبحت TSMC الشريك المفضل لمعظم مشاريع الشرائح الرئيسية للذكاء الاصطناعي، بينما تتصدر Broadcom سوق تصميم الشرائح المخصصة، مع شراكات مع Google TPU وMeta MTIA، وأيضًا مع OpenAI التي ستطلق شرائحها المخصصة في 2026. عادةً، تقوم Apple بتصميم كامل لشرائح هواتفها وأجهزة الكمبيوتر، لكن هناك تقارير تشير إلى أنها قد تتعاون مع Broadcom أيضًا في تطوير شرائح الذكاء الاصطناعي. تتوقع Citigroup أن تتضاعف إيرادات Broadcom من شرائح الذكاء الاصطناعي خمس مرات خلال العامين المقبلين، من 20 مليار دولار في 2025 إلى 100 مليار دولار في 2027.

أما مسار تطوير شرائح Trainium من أمازون، فهو فريد نوعًا ما — حيث يُقال إن Trainium 2 تعاون مع Marvell، لكن بسبب أداء Marvell غير المرضي، تحولت مشاريع Trainium 3 وTrainium 4 إلى التعاون مع Alchip. قدرة أمازون على تغيير الشركاء الخلفيين تشير إلى أن التكامل الرأسي يحمل مخاطر حقيقية لشركات مثل Broadcom. ومن الجدير بالذكر أن Apple وTesla تتعاون مباشرة مع مصانع الرقائق. ومن المتوقع أن تفعل Google الشيء ذاته مع إصدار TPU v8، الذي يتوفر بنسختين: واحدة من تصميم Broadcom، والأخرى من تصميم Google المستقل بدعم من MediaTek.

نشاط الشركات الناشئة في مجال الشرائح يتصاعد

تشير أبحاثنا إلى أن مجموعة من الشركات الناشئة التي تحاول تبني نماذج معمارية جديدة تشكل قوة طويلة الذيل قد تتحدى مكانة الشركات الحالية في السوق. شركة Cerebras، المعروفة بشرائحها العملاقة المصنوعة من رقاقة واحدة بحجم بيتزا، تقدم أسرع سرعة معالجة للرموز في السوق، وتخطط لإطلاقها هذا العام. أعلنت مؤخرًا عن تعاون مع OpenAI لإطلاق نموذج برمجة عالي السرعة Codex Spark، بعد أن كانت قد أبرمت اتفاقية تعاون في يناير الماضي. شركة Groq، التي تتميز بسرعة معالجة الرموز، وقعت مؤخرًا اتفاقية ترخيص غير حصرية بقيمة 20 مليار دولار مع نيفيديا، تشمل 90% من موظفيها، والرئيس التنفيذي والمؤسس المشارك لـ TPU، جوناثان روس. تعتبر هذه الصفقة بمثابة استحواذ على فريق وتقنية Groq، وهي صيغة شائعة في عمليات الاستحواذ، حيث تسعى الشركات التقنية الكبرى لتجنب التأخيرات الناتجة عن التدقيق التنظيمي. وفي سياق عمليات الاستحواذ الأخرى، فشلت محادثات استحواذ Intel مؤخرًا، وبدلاً من ذلك، دخلت في شراكة مع SambaNova. منذ 2014، أجرت Intel أربع عمليات استحواذ على شركات الذكاء الاصطناعي، لكنها لم تطلق بعد منتجًا ناجحًا في السوق، وهو أمر يثير الأسف.

نظرة مستقبلية: حجم السوق قد يصل إلى 1.4 تريليون دولار بحلول 2030

وفقًا لأبحاثنا، فإن النمو المستمر في الطلب والأداء المتزايد خلال السنوات الخمس القادمة سيدفعان تطور برمجيات الذكاء الاصطناعي وخدمات السحابة، مع إنفاق على البنية التحتية للذكاء الاصطناعي يتضاعف ثلاث مرات — من 500 مليار دولار في 2025 إلى ما يقارب 1.5 تريليون دولار في 2030.

يعتمد توقعنا على ملاحظاتنا التاريخية حول استثمار أنظمة مراكز البيانات مقارنة بإيرادات البرمجيات. في أوائل العقد الأول من الألفية، مع بروز الحوسبة السحابية، كانت استثمارات الأنظمة تمثل حوالي 50% من الإنفاق العالمي على البرمجيات. بحلول 2021، بعد جائحة كوفيد-19، أدت الاستثمارات المفرطة وتحسينات العملاء إلى انخفاض نسبة استثمار الأنظمة إلى أقل من 20% من الإنفاق على البرمجيات. توقعنا أن تصل استثمارات 2030 إلى 1.5 تريليون دولار، استنادًا إلى سيناريو محايد لنمو الإنفاق العالمي على البرمجيات بقيمة 70 تريليون دولار بحلول 2030، وهو ما شرحناه بالتفصيل في مدونة سابقة. نعتقد أن نسبة 20% تعكس بشكل كافٍ مخاطر الاستثمارات المفرطة المحتملة قبل 2030، بالإضافة إلى احتمالية أن يكون نمو إيرادات البرمجيات أبطأ من السيناريو المحايد — وفي هذه الحالة، ستظل استثمارات البنية التحتية في ارتفاع، كما كان الحال في أوائل العقد الأول من الألفية.

مع استمرار الطلب على الحوسبة المدفوعة بالذكاء الاصطناعي، نتوقع أن تتزايد حصة الشرائح المخصصة في الإنفاق الحاسوبي، حيث أن الوقت والمال المطلوبين لتصميم شرائح مخصصة لمهام معينة سيظهران مزايا أداء لكل دولار بشكل متزايد مع الحجم. نتوقع أن تتجاوز حصة ASIC المخصصة في السوق بحلول 2030 ثلث السوق تقريبًا.

بشكل عام، تشير أبحاثنا إلى أن البناء الحالي للبنية التحتية ليس فقاعة ستنفجر، بل هو تحول منصة نادر الحدوث، وهو أساس لثورة على مستوى السوق. تتوقع آر كيه أن يصل الإنفاق السنوي على البنية التحتية للذكاء الاصطناعي إلى حوالي 1.5 تريليون دولار بحلول 2030، وهو سوق يقوده طلب حقيقي ومستمر من المستهلكين والشركات، مع انخفاض التكاليف المستمر الذي يثبت ويطلق إمكانيات استخدام جديدة. نعتقد أن الشركات التي ستبرز خلال السنوات الخمس القادمة هي تلك التي ستتمكن من تصميم شرائح أكثر كفاءة، وبناء نماذج أقوى، ونشر الاثنين على نطاق واسع.

كما أوضح الرئيس التنفيذي لنيفيديا، هوانغ رن تشن، خلال مؤتمر الأرباح للربع الرابع من 2026، أن الوكيلات الذكية القابلة للتطبيق بشكل حقيقي بدأت تتوسع على نطاق واسع خلال الأشهر الماضية. فهي تستهلك كميات هائلة من الرموز، لكن قدراتها تتجاوز بكثير معظم المنتجات التي اعتاد عليها المستخدمون سابقًا. توسيع هذه الوكيلات إلى ملايين الشركات سيكون عملًا مكثفًا جدًا من حيث الحوسبة، لكننا نعتقد أن الزيادة في الإنتاجية الناتجة عن ذلك ستكون تستحق هذه الاستثمارات تمامًا.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.27Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.28Kعدد الحائزين:1
    0.00%
  • تثبيت