العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
Pre-IPOs
افتح الوصول الكامل إلى الاكتتابات العامة للأسهم العالمية
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
التحكم الضعيف، المهارة السمنة: المصدر الحقيقي لإنتاجية الذكاء الاصطناعي بمعدل 100 ضعف
العنوان الأصلي: الحزام الرفيع، المهارات السميكة
المؤلف الأصلي: غاري تان
الترجمة: بيغي، BlockBeats
المؤلف الأصلي: بلوكبايتس
المصدر الأصلي:
إعادة النشر: مارس فاينانس
مقدمة المحرر: عندما يصبح “النموذج الأقوى” هو الإجابة الافتراضية للصناعة، تقدم هذه المقالة حكمًا مختلفًا: الفرق الحقيقي في زيادة الإنتاجية بمقدار 10 أضعاف، 100 ضعف، أو حتى 1000 ضعف، ليس في النموذج نفسه، بل في نظام التصميم الكامل المبني حول النموذج.
المؤلف في هذا المقال، غاري تان، هو حالياً رئيس Y Combinator ومديرها التنفيذي، وله خبرة طويلة في الذكاء الاصطناعي وبيئة الشركات الناشئة المبكرة. اقترح إطار عمل “المهارات السميكة + الحزام الرفيع”، الذي يقسم تطبيقات الذكاء الاصطناعي إلى مكونات رئيسية مثل المهارات، إطار التشغيل، توجيه السياق، تقسيم المهام، وضغط المعرفة.
تحت هذا النظام، لم يعد النموذج هو القدرة الكاملة، بل هو مجرد وحدة تنفيذ داخل النظام؛ والقرار الحقيقي الذي يحدد جودة المخرجات هو كيف تنظم السياق، وتترسي العمليات، وكيف تضع حدودًا بين “الحكم” و"الحساب".
الأهم من ذلك، أن هذه الطريقة ليست مجرد مفهوم نظري، بل تم اختبارها في سيناريوهات حقيقية: حيث تعامل النظام مع مهام معالجة البيانات ومطابقتها لآلاف رواد الأعمال، من خلال دورة “القراءة — التجميع — الحكم — الكتابة مرة أخرى”، محققًا قدرات تقارب قدرات المحللين البشريين، مع تحسين ذاتي مستمر دون الحاجة لإعادة كتابة الكود. هذا “النظام القابل للتعلم” يحول الذكاء الاصطناعي من أداة لمرة واحدة إلى بنية تحتية ذات تأثير مضاعف.
وبناءً عليه، فإن التذكير الرئيسي الذي تقدمه المقالة واضح أيضًا: في عصر الذكاء الاصطناعي، الفارق في الكفاءة لم يعد يعتمد على استخدامك لأحدث النماذج، بل على مدى بناء نظام قادر على تراكم القدرات بشكل مستمر، والتطور التلقائي.
وفيما يلي النص الأصلي:
قال ستيف ييجي، إن استخدام وكيل برمجي للذكاء الاصطناعي في البرمجة، “الكفاءة هي تلك التي تتراوح بين 10 أضعاف إلى 100 ضعف مقارنة بالمبرمجين الذين يكتبون الكود باستخدام المؤشر وأدوات الدردشة، وهو تقريبًا 1000 ضعف في Google عام 2005.”
وهذا ليس مبالغة. لقد رأيته بعيني، وخبرته بنفسي. لكن عندما يسمع الناس بهذا الفارق، غالبًا ما يعزون ذلك إلى اتجاه خاطئ: نماذج أقوى، Claude أذكى، مزيد من المعلمات.
في الواقع، الأشخاص الذين يرفعون الكفاءة بمقدار 2 ضعف و100 ضعف يستخدمون نفس النموذج. الفرق ليس في “الذكاء”، بل في “الهيكلية”، وهذه الهيكلية بسيطة لدرجة يمكن كتابتها على بطاقة واحدة.
الحزام الرفيع (إطار التشغيل) هو جوهر المنتج نفسه.
في 31 مارس 2026، أصدرت شركة أنثروبيك بشكل غير متوقع الشفرة المصدرية الكاملة لـ Claude Code على npm — بإجمالي 512 ألف سطر. قرأتها كلها. وأكدت على ما كنت أكرره في YC (Y Combinator): السر الحقيقي ليس في النموذج، بل في “الطبقة التي تغلف النموذج”.
السياق الفوري لمستودع الكود، ذاكرة الطلبات، الأدوات المصممة لمهمة معينة، ضغط المعلومات الزائد، الذاكرة الهيكلية للمحادثة، الوكلاء الفرعيون المتوازون — كل ذلك لا يجعل النموذج أذكى. لكنه يضمن أن النموذج يحصل على “السياق الصحيح” في “الوقت المناسب”، ويتجنب أن يطغى عليه المعلومات غير ذات الصلة.
هذه الطبقة “الغلاف”، تسمى الحزام (harness). وكل مطور ذكاء اصطناعي يجب أن يسأل نفسه: ما الذي يجب أن يُوضع في الحزام، وما الذي يجب أن يبقى خارجه؟
الجواب المحدد جدًا لهذا السؤال هو — أطلق عليه: الحزام الرفيع (thin harness)، والقدرات السميكة (fat skills).
خمسة تعريفات
الاختناقات ليست أبدًا في ذكاء النموذج. النموذج يعرف بالفعل كيف يستنتج، ويجمع المعلومات، ويكتب الكود.
فشله يأتي من عدم فهم بياناتك — مخطط البيانات، الاتفاقات، وشكل المشكلة المحدد. وهذه الخمسة تعريفات، تحديدًا، صممت لحل هذه المشكلة.
ملف المهارة هو وثيقة ماركداون قابلة لإعادة الاستخدام، تُعلم النموذج “كيف يفعل شيئًا”. انتبه، ليست مجرد إخبار النموذج “ماذا يفعل” — تلك مهمة المستخدم. ما يقدمه ملف المهارة هو العملية.
الفرق الرئيسي الذي يغفله الكثيرون هو أن ملف المهارة يشبه استدعاء وظيفة. يمكنه استقبال معلمات. يمكنك استدعاؤه بمعلمات مختلفة. نفس العملية، بسبب اختلاف المعطيات المدخلة، تظهر قدرات مختلفة تمامًا.
على سبيل المثال، هناك مهارة تسمى /investigate. تتضمن سبعة خطوات: تحديد نطاق البيانات، بناء الجدول الزمني، تصنيف كل وثيقة، التلخيص، المناقشة من الجانبين، الاستشهاد بالمصادر. تستقبل ثلاثة معلمات: TARGET، QUESTION، DATASET.
إذا وجهتها لعالم سلامة، وكنت تستخدم 2.1 مليون رسالة أدلة، فستتحول إلى محلل أبحاث طبية، يقرر ما إذا كان المبلغ عنه تعرض للقمع.
وإذا وجهتها لشركة وهمية وتقرير لجنة الانتخابات الأمريكية (FEC)، فستصبح محققًا قانونيًا، يتتبع التبرعات السياسية التعاونية.
نفس المهارة. نفس الخطوات السبعة. نفس ملف الماركداون. الوصف يصف عملية الحكم، والمعلمات المدخلة عند الاستدعاء هي التي تحولها إلى واقع.
هذه ليست هندسة الطلبات (prompt engineering)، بل تصميم برمجيات: مع أن اللغة المستخدمة هنا ماركداون، وبيئة التشغيل تعتمد على حكم الإنسان، إلا أن ماركداون قد يكون أنسب من الكود الصلب لأنه يصف العملية، والحكم، والسياق، وهي كلها لغات يفهمها النموذج بشكل أفضل.
الحزام هو الطبقة التي تدير تشغيل النموذج الكبير. يقوم بأربع مهام فقط: تشغيل النموذج في حلقة، قراءة وكتابة ملفاتك، إدارة السياق، وتنفيذ القيود الأمنية.
هذا كل شيء. هذا هو “الرفيع” (thin).
أما النمط المعاكس فهو: حزام سمين، مهارات رفيعة.
لقد رأيت هذا النوع: أكثر من 40 أداة معرفة، تستهلك نصف مساحة سياق النافذة؛ أداة إلهية شاملة، تستغرق 2 إلى 5 ثوانٍ لكل عملية MCP؛ أو جعل كل نقطة نهاية API REST أداة مستقلة. النتيجة: استهلاك الرموز يتضاعف، التأخير يتضاعف، ومعدل الفشل يتضاعف.
الطريقة المثلى هي استخدام أدوات مخصصة، سريعة، ذات وظائف ضيقة.
مثلاً، CLI من Playwright، كل عملية تصفح تستغرق 100 مللي ثانية؛ بدلاً من MCP من Chrome، الذي يستغرق 15 ثانية لالتقاط لقطة شاشة، العثور، النقر، الانتظار، والقراءة. الأول أسرع بـ75 مرة.
البرمجيات الحالية لا تحتاج إلى أن تكون “مُحَفَّة” ومعقدة. ما عليك سوى بناء ما تحتاجه حقًا، ولا شيء غير ذلك.
الحل هو في جوهره جدول توجيه سياق. عندما يظهر نوع مهمة X، يتم تحميل المستند Y أولاً. المهارات تخبر النموذج “كيف يفعل”، والحلول تخبره “متى يجب أن يحمل ماذا”.
مثلاً، مطور يغير أمرًا معينًا. بدون حل، قد يطلق التحديث مباشرة. مع الحل، يقرأ النموذج ملف docs/EVALS.md، الذي يوضح: تشغيل مجموعة التقييم، مقارنة النتائج، وإذا انخفضت الدقة بأكثر من 2%، يتم التراجع والتحقيق. المطور لم يكن يعلم بوجود مجموعة التقييم من قبل. الحل هو الذي يضع السياق الصحيح في الوقت المناسب.
Claude Code يأتي مزودًا بحل مدمج. كل مهارة لها حقل وصف، والنموذج يطابق تلقائيًا نية المستخدم مع وصف المهارة. أنت لا تحتاج حتى لتذكر وجود /ship — الوصف هو الحل.
بصراحة، كانت ملف CLAUDE.md الخاص بي يحتوي على 20 ألف سطر. كل العيوب، الأنماط، الدروس المستفادة، كانت مخزنة هناك. كان ذلك مبالغًا فيه جدًا، وأدى إلى تدهور جودة انتباه النموذج. حتى أنني قررت حذفها.
الحل النهائي يتكون من حوالي 200 سطر — يحتفظ فقط بمؤشرات بعض المستندات. عندما يحتاج النموذج إلى مستند معين، يطلب الحل تحميله في اللحظة الحاسمة. هكذا، تظل 20 ألف سطر من المعرفة متاحة عند الحاجة، دون أن تلوث سياق الإدخال.
في نظامك، كل خطوة إما تنتمي إلى الفضاء الكامن، أو إلى التحديد. وخطأ الجمع بينهما هو أحد أكثر أخطاء تصميم الوكيل (agent).
· الفضاء الكامن (Latent space)، هو مكان الذكاء. هنا يقرأ النموذج، يفهم، يستنتج، يقرر. يتعامل مع: الحكم، التجميع، التعرف على الأنماط.
· التحديد (Deterministic)، هو موضع الثقة. نفس المدخلات دائمًا تعطي نفس المخرجات. استعلامات SQL، الكود المترجم، العمليات الحسابية، كلها من هذا الجانب.
يمكن لنموذج كبير أن يساعدك في ترتيب مائدة عشاء لـ8 أشخاص، مع مراعاة شخصياتهم وعلاقاتهم الاجتماعية. لكن إذا طلبت منه ترتيب 800 شخص، فسيختلق جدولًا غير صحيح تمامًا، لأنه لم يعد يتعامل مع الفضاء الكامن، بل مع مشكلة تحسين التوليف، وهي مشكلة تتطلب التحديد.
أسوأ الأنظمة هي التي تخلط بين هذين الجانبين بشكل خاطئ. وأفضلها هو الذي يضع الحدود بصرامة.
هذه الخطوة هي المفتاح الحقيقي لقيمة الذكاء الاصطناعي في العمل المعرفي الواقعي.
يعني أن النموذج يقرأ جميع المواد ذات الصلة بموضوع معين، ثم يكتب تصورًا منظمًا. يستخدم صفحة واحدة لتلخيص الآراء من عشرات أو مئات المستندات.
هذه ليست نتيجة استعلام SQL، وليست ناتج خط أنابيب RAG. النموذج يجب أن يقرأ فعليًا، ويضع المعلومات المتناقضة في ذهنه، ويلاحظ التغييرات، ويجمعها في تصور منظم.
هذا الفرق بين استعلام قاعدة البيانات والتقرير التحليلي للمحلل.
هذه البنية
هذه الخمسة مفاهيم يمكن أن تتحد لتشكيل بنية بسيطة من ثلاث طبقات:
· الطبقة العليا: المهارات السميكة (fat skills): عمليات مكتوبة بماركداون، تتضمن الحكم، المنهجية، والمعرفة الميدانية. 90% من القيمة في هذه الطبقة.
· الطبقة الوسطى: حزام تشغيل CLI رقيق: حوالي 200 سطر من الكود، يستقبل JSON، يعطي نص، ويقرأ بشكل افتراضي فقط.
· الطبقة السفلى: نظام تطبيقك: QueryDB، ReadDoc، Search، Timeline — هذه البنية التحتية التحديدية.
المبدأ الأساسي هو أن تتجه القدرات الذكية للأعلى نحو المهارات، وأن تركز التنفيذ على أدوات التحديد، مع الحفاظ على الحزام خفيفًا.
النتيجة هي: كلما زادت قدرات النموذج، زادت قوة جميع المهارات تلقائيًا؛ والنظام التحتية التحديدية يظل ثابتًا وموثوقًا.
نظام يتعلم
سأستخدم الآن مثالًا من نظام حقيقي نبنيه في YC، لشرح كيف تتفاعل هذه المفاهيم الخمسة.
يوليو 2026، ملعب تشيس سنتر. 6000 مؤسس في Startup School. كل واحد منهم لديه مواد تقديم منظمة، استبيانات، نسخ من محادثات 1:1 مع المرشدين، وإشارات عامة: منشورات على X، سجلات GitHub، استخدام Claude Code (يمكن ملاحظة سرعة التطوير).
الطريقة التقليدية كانت: فريق من 15 شخصًا يقرأ الطلبات واحدًا تلو الآخر، ويقيم بناءً على الحدس، ثم يُحدّث جدولًا.
هذه الطريقة كانت تعمل حتى 200 شخص، لكنها فشلت تمامًا عند 6000. لا يمكن للبشر أن يستوعبوا كل هذه الصور الذهنية في أدمغتهم، ويدركوا أن أفضل ثلاثة مرشحين لبنية الذكاء الاصطناعي هم: مؤسس أدوات التطوير في لاغوس، رائد أعمال في سنغافورة متخصص في الامتثال، ومطور أدوات CLI في بروكلين — وكل منهم يصف نفس المشكلة بشكل مختلف تمامًا في محادثات مختلفة.
لكن النموذج يمكنه ذلك. والطريقة كالتالي:
تعزيز المعلومات (Enrichment)
هناك مهارة تسمى /enrich-founder، تقوم بجلب جميع مصادر البيانات، وتعمل على تعزيز المعلومات، وتقوم بالتصنيف، وتحدد الفروقات بين “ما قاله المؤسس” و"ما يفعله فعليًا".
النظام التحديد يختص بـ: استعلامات SQL، بيانات GitHub، اختبارات المتصفح لعناوين URL، جمع إشارات التواصل الاجتماعي، استعلامات CrustData. يُشغل مهمة مجدولة يوميًا. وتظل صور المؤسسين الـ6000 محدثة دائمًا.
مخرجات التصنيف، يمكنها اكتشاف معلومات لا يمكن أن تكشف عنها عمليات البحث بالكلمات المفتاحية فقط:
هذه الفروقات بين “القول والفعل” تتطلب قراءة كاملة لتاريخ التعديلات على GitHub، ومواد الطلب، وسجلات المحادثات، ودمجها في ذهن واحد. لا يمكن لأي بحث عن التشابه في التمثيلات أن يحقق ذلك، ولا تصفية الكلمات المفتاحية. النموذج يجب أن يقرأ بشكل كامل، ثم يصدر حكمه. (وهذا هو المهمة التي يجب أن توضع في الفضاء الكامن!)
المطابقة (Matching)
هنا تتجلى قوة “المهارة = استدعاء طريقة”.
نفس مهارة المطابقة، يمكن استدعاؤها ثلاث مرات، لإنتاج استراتيجيات مختلفة تمامًا:
/match-breakout: التعامل مع 1200 شخص، تصنيف حسب المجال، كل مجموعة 30 شخصًا (باستخدام التمثيلات والتوزيع التحديدى)
/match-lunch: التعامل مع 600 شخص، مطابقة عشوائية عبر المجالات، كل طاولة 8 أشخاص بدون تكرار — يحددها النموذج أولًا بمواضيع، ثم يوزعها خوارزمية التحديد
/match-live: التعامل مع المشاركين في الوقت الحقيقي، استنادًا إلى أقرب الجيران في التمثيلات، خلال 200 مللي ثانية، يطابق شخصًا بشخص، ويستبعد من التقابل من سبق له اللقاء
ويمكن للنموذج أن يصدر قرارات لا يمكن أن تتوصل إليها خوارزميات التجميع التقليدية:
“سانتوس وأورام ينتميان إلى بنية الذكاء الاصطناعي، لكنهما ليسا في منافسة مباشرة — سانتوس يركز على تحليل التكاليف، وأورام على التنسيق. يجب وضعهما في مجموعة واحدة.”
“كيم كتب عن أدوات المطورين، لكن المحادثات تظهر أنه يعمل على أتمتة الامتثال لـ SOC2. يجب إعادة تصنيفه إلى FinTech / RegTech.”
هذه التصنيفات الجديدة لا يمكن اكتشافها بواسطة التمثيلات فقط. النموذج يحتاج لقراءة الملف كاملًا.
دورة التعلم (Learning Loop)
بعد انتهاء النشاط، مهارة /improve تقرأ نتائج استبيان NPS، وتقوم بعمل تصنيف للملاحظات “التي كانت جيدة نوعًا ما” — ليست تقييمات سلبية، بل تلك التي كانت “قريبة من الجيدة” — وتستخلص أنماطًا.
ثم تقترح قواعد جديدة، وتكتبها مرة أخرى في مهارات المطابقة:
عندما يقول المشارك “بنية الذكاء الاصطناعي”، لكن كوده يتجاوز 80% منه في وحدات الفوترة: → يُصنّف على أنه FinTech وليس AI Infra
عندما يكون شخصان في نفس المجموعة، ويعرفان بعضهما: → يقلل من وزن المطابقة، ويعطي أولوية للعلاقات الجديدة
هذه القواعد تُكتب في ملف المهارة، وتُفعل تلقائيًا عند التشغيل التالي. المهارات تتعلم “كيف تكون جيدة” بدون إعادة كتابة الكود يدويًا.
في يوليو، كانت نسبة التقييم “جيد نوعًا ما” 12%؛ وفي الجولة التالية انخفضت إلى 4%.
ملف المهارة تعلم معنى “جيد نوعًا ما”، والنظام يتحسن بدون تدخل بشري.
وهذا النمط يمكن تطبيقه على أي مجال:
البحث → القراءة → التصنيف → العد → التجميع
ثم: البحث → الاستقصاء → التصنيف → إعادة كتابة المهارة
وإذا سألت عن أكثر دورة قيمة في 2026، فهي هذه: نظام يمكن تطبيقه على جميع سيناريوهات العمل المعرفي تقريبًا.
الترقية الدائمة للمهارات
مؤخرًا، نشرت على X أمرًا موجهًا لـ OpenClaw، وكان رد الفعل أكبر من المتوقع:
حصل المنشور على آلاف الإعجابات وأكثر من ألفي حفظ. ظن الكثيرون أنه مجرد تقنية في هندسة الطلبات.
لكن الحقيقة أن هذا هو نفس بنية النظام التي شرحناها سابقًا. كل مهارة تكتبها، هي ترقية دائمة للنظام. لن تتدهور، ولن تُنسى. ستعمل تلقائيًا في الساعة الثالثة صباحًا. وعندما تصدر النماذج الأحدث، ستصبح كل المهارات أقوى على الفور — مع تحسين قدرات الحكم في الفضاء الكامن، مع بقاء التحديد ثابتًا وموثوقًا.
وهذا هو مصدر الكفاءة بمقدار 100 ضعف، كما قال ييجي.
ليس في النموذج الأذكى، بل في: المهارات السميكة، والإطار الرفيع (Thin Harness)، والانضباط في تحويل كل شيء إلى قدرة.
النظام يتراكم بالفائدة المركبة. يبنى مرة ويعمل طويلًا.