لقد لاحظت شيئًا كان يعيد تشكيل لعبة البنية التحتية للذكاء الاصطناعي بصمت، ومن الصادم حقًا قلة من الناس يتحدثون عنه.



لسنوات، كنا جميعًا مهووسين بندرة وحدات معالجة الرسوميات—وهذا هو المكان الذي يحدث فيه الحوسبة، أليس كذلك؟ لكن إليك الأمر: لقد نظرنا للمشكلة بشكل خاطئ. القيد الحقيقي لم يعد الاستنتاج بعد الآن. إنه وحدة المعالجة المركزية. وأعني حقًا—عندما تحتاج إلى تنظيم سير عمل وكيل معقد، والتعامل مع استدعاءات API، وإدارة قواعد البيانات، والتعامل مع نوافذ سياق ضخمة لا تتناسب مع ذاكرة GPU، فجأة يصبح المعالج هو نقطة الاختناق بينما تنتظر وحدة معالجة الرسوميات المكلفة فقط هناك.

دعني أشرح ما يحدث فعليًا في السوق. الرئيسة التنفيذية لشركة AMD، ليزا سو، أكدت بشكل أساسي أن هذا التحول حقيقي. إيرادات مركز البيانات لديهم بلغت 5.4 مليار دولار في الربع الأخير مع قفزة بنسبة 39% على أساس سنوي. معالجات EPYC من الجيل الخامس وحدها تمثل أكثر من نصف إيرادات معالجات الخوادم لديهم، ونحن نرى نموًا يزيد عن 50% في الحالات السحابية التي تعمل على EPYC. ولأول مرة، تسيطر AMD على أكثر من 40% من حصة سوق معالجات الخوادم. هذا ليس عشوائيًا—بل لأن الجميع أدرك فجأة أنهم بحاجة إلى قوة معالجة CPU حقيقية لتشغيل وكلاء الذكاء الاصطناعي على نطاق واسع.

وفي الوقت نفسه، كانت Intel تكافح ولكنها تلعب بشكل ذكي. لقد وقعوا مؤخرًا عقدًا متعدد السنوات مع Google خصيصًا لنشر معالجات Xeon عبر مراكز بيانات الذكاء الاصطناعي. العرض؟ المعالجات والمعززات المتخصصة أصبحت الآن محركات الأداء الحقيقية، وليست مجرد لاعبين داعمين. حتى إيلون ماسك طلب شرائح مخصصة من Intel لمشروع Terafab الخاص به—وهذا إشارة ضخمة إلى الاتجاه الذي تتجه إليه البنية التحتية.

إليك لماذا يهم هذا: أعباء عمل الوكيل تختلف جوهريًا عن روبوتات الدردشة. مع الوكلاء، أنت لا تولد الرموز فقط—بل تقوم بالتفكير متعدد الخطوات، وتنظيم استدعاءات API، وإدارة الحالة، وقراءة وكتابة البيانات إلى قواعد البيانات. أظهرت ورقة من Georgia Tech العام الماضي أن أدوات المعالجة على جانب وحدة المعالجة المركزية يمكن أن تمثل من 50% إلى 90% من إجمالي الكمون. وحدة GPU جاهزة، لكن وحدة المعالجة المركزية لا تزال تنتظر ردود الأدوات. أضف إلى ذلك نوافذ السياق التي تتجاوز الآن مليون رمز، وفجأة تحتاج إلى ذاكرة عرضية واسعة النطاق وعرض نطاق ترددي ضخم لتخزين ذاكرة KV التي لا تتناسب مع وحدات معالجة الرسوميات.

رد NVIDIA مثير للاهتمام. معالج Grace الخاص بهم يحتوي على 72 نواة فقط مقارنة بـ 128 نواة من AMD أو التشكيلة النموذجية من Intel. لكن هذا مقصود—هم يحسنون الكفاءة بين وحدة المعالجة المركزية ووحدة معالجة الرسوميات بدلاً من التركيز على عدد النوى الخام. هم يروجون لفكرة أن المعالج هو حقًا مركز تنسيق، وليس معالجًا عام الاستخدام. مع وصول اتصال NVLink إلى 1.8 تيرابايت في الثانية، يمكن لوحدة المعالجة المركزية الوصول مباشرة إلى ذاكرة GPU، مما يغير تمامًا كيفية إدارة هذه الكاشات الضخمة من KV.

الإشارة السوقية واضحة جدًا. بنك أوف أمريكا يتوقع أن يتضاعف سوق المعالجات المركزية من $27 مليار إلى $60 مليار بحلول 2030، تقريبًا مدفوعًا بالكامل بالذكاء الاصطناعي. والأمر المثير—في شراكة أمازون بقيمة $38 مليار مع OpenAI، يخططون صراحة لنشر عشرات الملايين من وحدات المعالجة المركزية. هذه هي المقياس الجديد. لم نعد نتحدث عن مئات الآلاف من وحدات معالجة الرسوميات فقط؛ نحن نتحدث عن بناء طبقات بنية تحتية كاملة لتنظيم المعالجات المركزية.

ما يحدث حقًا هو أننا نتحول من عصر محدود بوحدة معالجة الرسوميات إلى عصر كفاءة على مستوى النظام. الشركات التي تتعلم كيف توازن بين التعاون بين وحدة المعالجة المركزية ووحدة معالجة الرسوميات، وتدير هياكل ذاكرة ضخمة، وتتعامل بكفاءة مع سير عمل الوكيل المعقد—هي التي ستفوز. لم يعد الأمر متعلقًا بالمكونات الفردية فقط. الأمر يتعلق بالنظام ككل الذي يعمل معًا. وإذا لم تكن تفكر في استراتيجيتك للمعالج المركزي في 2026، فأنت بالفعل متأخر.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت