سبعة إشارات لفهم الذكاء الاصطناعي هذا الأسبوع: تسريب النماذج، محرك الكود، إدارة الأفراد

أنثروبيك يُقدّر أن معدل التشغيل السنوي لإجمالي الإيرادات يصل إلى 14 مليار دولار، وأن معدل التشغيل السنوي لـClaude Code وحده يقارب 2.5 مليار دولار.

المؤلف: تارا تان / StrangeVC

الترجمة: Deep潮 TechFlow

مقدمة Deep潮: هذا التقرير الأسبوعي مكثف جدًا، حيث تغطي سبع إشارات مستقلة أهم الاتجاهات في صناعة الذكاء الاصطناعي.

وأهمها: أنثروبيك كشفت عن نموذج جديد باسم “Capybara” من خلال خطأ في تكوين نظام إدارة المحتوى، وهو مستوى أعلى من Opus.

النص الكامل:

خلال الأشهر القليلة الماضية، من المؤكد أننا تجاوزنا عتبة معينة في الذكاء الوكيل (agentic). ما كان يستغرق من أربع إلى ستة أسابيع لبنائه قبل خمس سنوات، أصبح الآن أقل من خمس دقائق. قبل ستة أشهر، كان نفس المهمة تستغرق ساعة إلى ساعتين مع الكثير من التصحيح.

هذا تحول كبير جدًا، وربما لم نتمكن بعد من استيعابه بالكامل. انهيار الفجوة بين الأفكار والمنتجات القابلة للتشغيل سيعيد كتابة صناعة كاملة. إنه تحول نوعي في الأدوات التي يستخدمها البشر للبناء والإبداع وحل المشكلات.

وبما يتصل بذلك، فإن OpenClaw أصبح أكثر استقرارًا بشكل واضح منذ استحواذ OpenAI عليه. لديه مسار واضح ليصبح أحد أهم مشاريع المصدر المفتوح في مجال الذكاء الاصطناعي.

ننتقل إلى محتوى هذا الأسبوع.

تسريب أنثروبيك لClaude Mythos يكشف عن مستوى جديد من النماذج

بسبب خطأ في تكوين نظام إدارة المحتوى، كشفت أنثروبيك عن تفاصيل نموذج غير منشور يُدعى Claude Mythos. المسودة المسربة تصف مستوى جديد يُسمى “Capybara”، يقع فوق Opus، ويحقق تقدمًا كبيرًا في قدرات البرمجة، والاستدلال، والأمن السيبراني. وأكدت أنثروبيك أنها تختبر النموذج مع العملاء الأوائل، ووصفتها بأنها “تحول نوعي” و"أقوى نموذج تم بناؤه حتى الآن". (فوربس، The Decoder)

لماذا هو مهم: بالإضافة إلى النموذج نفسه، هناك أمران يجدران بالاهتمام أكثر. الأول: التحذير في المسودة المسربة من أن قدرات النموذج في الأمن السيبراني “تفوق أي نموذج آخر في الذكاء الاصطناعي”، مما أدى خلال يوم تداول واحد إلى ارتفاع أسهم شركات الأمن السيبراني. الثاني: إدخال مستوى جديد من النموذج (Capybara فوق Opus) يشير إلى أن أنثروبيك تبني مساحة تسعير للعملاء المؤسساتيين، وليس فقط بناء مساحة أداء للاختبار.

Claude Code يتجه ليكون المحرك الرئيسي لنمو أنثروبيك

حاليًا، يمثل Claude Code حوالي 4% من جميع الالتزامات المفتوحة على GitHub، ومن المتوقع أن يصل إلى أكثر من 20% بحلول نهاية العام. يُقدّر أن معدل التشغيل السنوي لإجمالي إيرادات أنثروبيك يصل إلى 14 مليار دولار، وأن معدل التشغيل السنوي لـClaude Code وحده يقارب 2.5 مليار دولار. المستخدمون لهذا الأداة توسعوا من المطورين إلى غير التقنيين، الذين يتعلمون أوامر الطرفية لاستخدامها في بناء المشاريع. (SemiAnalysis، Uncover Alpha، VentureBeat)

لماذا هو مهم: من خلال الاعتماد العضوي للمطورين، يضغط Claude Code على تكاليف اكتساب العملاء إلى مستوى قريب من الصفر. ومن خلال التوسع عبر Cowork إلى غير المطورين، يتم توسيع السوق المستهدف بشكل كبير ليشمل أكثر من 28 مليون مطور محترف حول العالم.

مقدمة تشن لو: تخطيط النص بدون الاعتماد على CSS

تشن لو هو واحد من أكثر مهندسي واجهات المستخدم تأثيرًا خلال العقد الماضي (React، ReasonML، Midjourney)، وقد أصدر أداة Pretext، وهي خوارزمية قياس نصوص مكتوبة بالكامل باستخدام TypeScript، تتجاوز تمامًا قيود CSS، وقياسات DOM، وإعادة ترتيب المتصفح. تشمل الأمثلة على الأداء: عرض مئات الآلاف من مربعات النص بسرعة 120 إطارًا في الثانية، فقاعات دردشة مضغوطة بدون هدر بكسل، تخطيطات مجلة متعددة الأعمدة استجابة، وفن ASCII بعرض متغير. (X post)

لماذا هو مهم: لطالما كانت تخطيطات النص وقياسه عائقًا خفيًا أمام الجيل الجديد من واجهات المستخدم. CSS مصممة للمستندات الثابتة، وليس للواجهات السائلة، والذكاء الاصطناعي، والتصميمات التفاعلية في الوقت الحقيقي التي أصبحت السائدة الآن. إذا حققت Pretext الأداء المعروض، فسيقضي على أحد آخر القيود الأساسية على مظهر وتجربة واجهات الذكاء الاصطناعي الأصلية.

أرم تُطلق أول شريحة معالجة مركزية (CPU) من تطويرها منذ 35 عامًا

أطلقت أرم معالج AGI، وهو معالج مركز بيانات مكون من 136 نواة، مبني باستخدام تقنية TSMC 3 نانومتر، بالتعاون مع Meta. وهذه هي المرة الأولى التي تبيع فيها الشركة شريحة جاهزة بدلاً من ترخيص حقوق الملكية الفكرية. شركاء أوليون هم OpenAI، Cerebras، وCloudflare، ومن المتوقع أن تبدأ الشحنات بكميات كبيرة قبل نهاية العام. (NVIDIA Newsroom، EE Times)

لماذا هو مهم: حاليًا، تهيمن وحدات معالجة الرسوميات (GPU) على مراكز البيانات للذكاء الاصطناعي، حيث تتولى تدريب وتشغيل النماذج، بينما تتولى المعالجات المركزية (CPU) معالجة تدفقات البيانات والجدولة. لكن الأحمال الوكيلية (agentic workloads) تختلف. عندما يعمل آلاف وكلاء الذكاء الاصطناعي في وقت واحد، كل واحد ينسق المهام، ويستدعي API، ويدير الذاكرة، ويوجه البيانات عبر الأنظمة، فإن هذه العمليات تتم على المعالجات المركزية. وتزعم أرم أن ذلك سيؤدي إلى زيادة الطلب على المعالجات المركزية لكل جيجاوات من سعة مركز البيانات بأربعة أضعاف. (HPCwire، Futurum Group)

نيفيديا وEmerald AI يحولان مراكز البيانات إلى أصول للشبكة الكهربائية

أعلنت نيفيديا وEmerald AI عن تحالف مع AES، وConstellation، وInvenergy، وNextEra، وVistra لبناء “مصانع ذكاء اصطناعي مرنة”، من خلال تنظيم الأحمال الحاسوبية للمشاركة في خدمات توازن الشبكة الكهربائية. أول منشأة، Aurora، تقع في ماناساس، في ولاية فيرجينيا، ومن المتوقع أن تفتح في النصف الأول من 2026. (NVIDIA Newsroom، Axios)

لماذا هو مهم: أكبر عوائق توسع بنية الذكاء الاصطناعي التحتية ليست الشرائح، بل جدول زمن الوصول إلى الشبكة الكهربائية، حيث تتطلب معظم المناطق من 3 إلى 5 سنوات. مراكز البيانات التي تظهر مرونة الشبكة يمكنها الوصول بشكل أسرع، وتواجه مقاومة تنظيمية أقل. هذا يعيد تعريف قضية الطاقة لمستثمري بنية الذكاء الاصطناعي: النقطة الحاسمة ليست “المزيد من الكهرباء”، بل “الكهرباء الأذكى”.

الصين تفرض قيودًا على سفر كبار مسؤولي Manus AI

بعد استحواذ Meta على شركة ناشئة في مجال الذكاء الاصطناعي مسجلة في سنغافورة بقيمة 2 مليار دولار، فرضت السلطات الصينية قيودًا على سفر الرئيس التنفيذي لشركة Manus، شياو هونغ، والعالم الرئيسي جي يي تشاو. واستدعت لجنة التنمية والإصلاح الوطنية الاثنين المسؤولين إلى بكين، وفرضت قيودًا على سفرهم خلال فترة المراجعة التنظيمية. (رويترز، واشنطن بوست)

لماذا هو مهم: هذه ليست قيودًا تجارية، بل قيود على الأشخاص. قد تكون الصين ترسل إشارة: المواهب الصينية في الذكاء الاصطناعي ذات خلفية صينية تعتبر أصولًا خاضعة للسيطرة، بغض النظر عن مكان تسجيل الشركات.

نموذج ضخم بـ 400 مليار معلمة يعمل على iPhone 17 Pro محليًا

عرض مشروع مفتوح المصدر يُدعى Flash-MoE نموذجًا هجينًا مكونًا من 400 مليار معلمة يعمل بالكامل على الجهاز، باستخدام معالج A19 Pro في iPhone 17 Pro، من خلال تدفق الأوزان من SSD إلى GPU. النموذج (Qwen 3.5-397B، بتكميم ثنائي النطاق، 170 مليار معلمة نشطة) يعمل بسرعة 0.6 توكن في الثانية، مع بقاء 5.5 جيجابايت من الذاكرة. (WCCFTech، TweakTown، Hacker News)

لماذا هو مهم: هذا إثبات مفهوم، وليس منتجًا. يمكن لنموذج بـ 400 مليار معلمة أن يعمل على هاتف بذاكرة 12 جيجابايت، لأن جزءًا صغيرًا فقط من النموذج يكون نشطًا في أي وقت (خبراء مختلطون)، والباقي يُنقل حسب الطلب من SSD المدمج في الهاتف. إذا طبقنا نفس التقنية على نماذج أصغر بكثير — مثل 70 مليار أو 140 مليار معلمة — على شرائح تخزين أسرع في الجيل القادم من الهواتف، فسنحصل على ذكاء اصطناعي يعمل بالكامل على الجهاز بسرعة تفاعلية، بدون الحاجة إلى السحابة.

وكيل الذكاء الاصطناعي ينفذ بالكامل سلسلة تجارب في الفيزياء الذرية

نشر باحثو معهد ماساتشوستس للتكنولوجيا إطار عمل يُدعى JFC (Just Furnish Context)، يُظهر أن وكيلًا يعتمد على Claude Code يمكنه تنفيذ خط أنابيب كامل لتحليل الفيزياء عالية الطاقة بشكل مستقل: تصفية الأحداث، تقدير الخلفية، قياس عدم اليقين، الاستنتاج الإحصائي، وكتابة الأوراق العلمية. يعمل النظام على بيانات مفتوحة من أجهزة استشعار ALEPH، DELPHI، وCMS. (arXiv 2603.20179)

لماذا هو مهم: هذا أحد أوضح الأمثلة على قدرة الذكاء الاصطناعي الوكلي على أتمتة سير العمل العلمي من البداية للنهاية في مجالات تتطلب دقة عالية جدًا في المنهجية. ويشير مباشرة إلى إمكانيات إعادة تحليل البيانات القديمة في الفيزياء، والجينوم، وعلوم المواد — حيث لا تزال العديد من مجموعات البيانات الأرشيفية غير مستغلة بشكل كامل بعد عقود من جمعها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت