العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
سيتيك للأوراق المالية: من المتوقع أن يستمر نموذج DeepSeek الجيل التالي في اتباع نهج النماذج المفتوحة المصدر ذات القيمة العالية
أشار تقرير بحثي صادر عن شركة China Citic Securities إلى أنه منذ عام 2026، تركز شركات نماذج اللغة الكبيرة المحلية على ترقية قدرات Agent والبرمجة، وتتنافس لإصدار نماذج جديدة. نعتقد أن الجيل التالي من نماذج DeepSeek التي يُتوقع إصدارها قريبًا قد يواصل مسار النماذج مفتوحة المصدر ذات الأداء-السعر المرتفع. فمن حيث القدرات، يُتوقع تحقيق وظائف ذاكرة أقوى ومعالجة سياقات شديدة الطول، ومع تحسين قدرات البرمجة وAgent في الوقت ذاته، يتم سد القصور في القدرات متعددة الوسائط، ما يتيح فرص استثمار جديدة في اتجاهات مصنع النموذج الأصلي وتطبيقات الذكاء الاصطناعي والبنية التحتية للذكاء الاصطناعي.
1、مصنع النموذج الأصلي: يُتوقع أن يتمكن الجيل الجديد من نماذج DeepSeek من العمل جنبًا إلى جنب مع نماذج محلية أخرى، بما يدفع الذكاء الاصطناعي في الصين للتسارع نحو العالم، وفي الوقت ذاته، تدفع عملية تدريب النموذج خطوة إضافية لخفض التكاليف؛ كما أن الـ tokens الأرخص تدفع الزيادة الإجمالية في حجم استدعاءات واجهة برمجة تطبيقات النماذج الكبيرة عالميًا. 2、تطبيقات الذكاء الاصطناعي: تساعد مساواة النماذج على تخفيف القلق في السوق الناجم عن سردية التناقض بين النماذج والتطبيقات، وتدعم تطبيق Agents في مختلف الصناعات، ما يفيد شركات تطبيقات الذكاء الاصطناعي ذات الحواجز؛ 3、البنية التحتية للذكاء الاصطناعي: يؤدي خفض التكاليف إلى نمو الاستخدام، ما يجعل AI Infra مستفيدًا، وتسير البنية التحتية للذكاء الاصطناعي المحلية والنماذج المحلية في اتجاهين متقابلين.
النص الكامل كما يلي
الكمبيوتر|DeepSeek:توقعات الجيل القادم من النماذج
منذ عام 2026، تركز شركات نماذج اللغة الكبيرة المحلية على ترقية قدرات Agent والبرمجة، وتتنافس لإصدار نماذج جديدة. نعتقد أن الجيل التالي من نماذج DeepSeek التي يُتوقع إصدارها قريبًا قد يواصل مسار النماذج مفتوحة المصدر ذات الأداء-السعر المرتفع. فمن حيث القدرات، يُتوقع تحقيق وظائف ذاكرة أقوى ومعالجة سياقات شديدة الطول، ومع تحسين قدرات البرمجة وAgent في الوقت ذاته، يتم سد القصور في القدرات متعددة الوسائط، ما يتيح فرص استثمار جديدة في اتجاهات مصنع النموذج الأصلي وتطبيقات الذكاء الاصطناعي والبنية التحتية للذكاء الاصطناعي.
▍ البرمجة، وAgent، ومتعدد الوسائط الأصلي: اتجاهات ترقية النماذج الكبيرة عالميًا.
في مجال برمجة الذكاء الاصطناعي، أدى ترقية أطر التدريب، واعتماد مستودعات أكواد كاملة ومسارات هندسية كتـدريب بيانات، وإدخال سلاسل أفكار أعمق مع تنفيذ متعدد الخطوات وإصلاح ذاتي، إلى تمكين ترقية AI Coding من أداة لاستكمال الكود إلى وكيل ذكي مستقل على مستوى المشروع. ومن المتوقع أن يؤدي Harness Engineer إلى دفع العاملين التقنيين من دور مهندسي الأكواد إلى دور مديري Agents الذين يتيحون للذكاء الاصطناعي تحقيق أقصى كفاءة. في مجال تجمعات Multi-Agent على مستوى المنتجات، تُظهر منتجات بمستوى “ظاهرة” مثل OpenClaw بشكل كافٍ إمكانات أنظمة متعددة الـAgent. كما طرحت شركات محلية مثل Zhipu وMiniMax وTencent وKimi وغيرها منتجات “شبيهة بالسرطان البحري”، لتطلق إنتاجية الموظفين الرقميين. في مجال متعدد الوسائط الأصلي، أصبحت بنية متعدد الوسائط الأصلي اتجاهًا سائدًا؛ إذ أحدث الترميز عبر تضمينات هجينة تقدمًا سريعًا. ومع ذلك، ما تزال النماذج المحلية بحاجة إلى اختراقات في المراحل الحاسمة مثل التفاعل اللحظي مع الصوت والفيديو واستدلال متصل عبر وسائط متعددة.
▍ نماذج اللغة الكبيرة المحلية: تكرار ترقية كثيف، واختراق مستمر في القدرات.
1)MiniMax: تمت ترقية قدرات الترميز أكثر، وحققت نتيجة اختبار M2.7 SWE-Pro نسبة 56.22%، متجاوزة Gemini 3.1 Pro؛ وفي سيناريو تسليم مشروع متكامل نهاية-إلى-نهاية عبر اختبار VIBE-Pro حققت 55.6%، لتقترب من Claude Opus 4.6. كما عزز فهم منطق التشغيل لأنظمة البرمجيات. في الوقت نفسه، شاركت نماذج سلسلة M2 في سيناريوهات مثل RL ضمن عملية تدريب M2.7، ما يتيح تكرار النموذج لنفسه.
2)Zhipu: قامت GLM-5 بإدخال DSA وتطوير معمارية “Slime” ذاتيًا. وتستطيع، عبر تدخل بشري محدود للغاية، إتمام تخطيط وتنفيذ طويل الأمد قائم على Agent بشكل مستقل، إلى جانب مهام هندسية للأنظمة مثل إعادة بناء الخلفية والتصحيح العميق. وتقترب قدراتها في استدعاء الأدوات وتنفيذ المهام متعددة الخطوات (MCP-Atlas 67.8%)، والبحث عبر الاتصال وفهم المعلومات (Browse Comp 89.7%) من المستوى الرائد عالميًا أو تتجاوزه حتى.
3)Kimi: أدخلت Kimi 2.5 قدرات الرؤية لتفكيك منطق التفاعل تلقائيًا، وإعادة إنتاج الأكواد. وقد أطلقت نمط تجمع Agents جديدًا. وفي مجموع اختبارات تطبيقات الوكلاء الذكية مثل HLE-Full وBrowseComp وDeepSearchQA، حصلت على درجات للمقارنة مع GPT-5.2 وClaude 4.5 Opus وGemini 3 Pro. وتستخدم Moonshoot استراتيجية خفض السعر، إذ انخفض سعر API بنسبة تزيد عن 30% مقارنة بتسعير K2 Turbo.
4)Xiaomi: يقترب Xiaomi MiMo-V2-Pro أو يتفوق على بعض نماذج الصف الأول المحلية عبر مجموعات الاختبارات التي تقيس قدرة استدعاء نماذج Agent مثل ClawEval وt2-bench، كما تشير الإصدارات المبكرة للاختبار الداخلي إلى إدراج الاسم المستعار Hunter Alpha على OpenRouter، وخلال فترة الإطلاق تصدرت عدة أيام يوميًا في ترتيب حجم الاستدعاءات. نحن متفائلون بأن قاعدة النماذج الكبيرة ستمكّن Xiaomi من تحقيق تسريع وثبات في كامل نظام “الإنسان والسيارة والمنزل”، ما يتيح قفزة في قدرات الذكاء الاصطناعي.
▍ نظرة DeepSeek: مواصلة مسار الأداء-السعر المرتفع، وتحسين قدرات النصوص الطويلة والبرمجة وAgent ومتعدد الوسائط.
اعتمدت DeepSeek V3.2، التي تم إصدارها في يناير 2026، بنية DSA (الانتباه المتفرق) + MoE (الخبراء الهجينين)، ما يحقق تحسينًا في كفاءة التدريب والاستدلال وخفضًا للتكاليف. وقد انخفض تسعير tokens الخاصة بالإدخال/الإخراج بنسبة 60%/75% على التوالي. وفي الوقت نفسه، زادت بشكل ملحوظ درجات BenchMark لميزات البرمجة وقدرات Multi-Agent. وبالاستناد إلى اتجاه تطور نماذج DeepSeek وإلى ورقة بحثية لوحدة Engram شارك في توقيعها Liang Wenfeng، نعتقد أن نماذج الجيل الجديد مثل DeepSeek V4.0 قد يكون بإمكانها دمج Engram في بنية DSA+MoE الناضجة بالفعل. ويتم ذلك عبر التخزين الهرمي للمعلومات الرئيسية والمستخدمة بشكل شائع لتحقيق انخفاض أسي في حجم حساب طبقة الانتباه داخل بنية Transformer، وبالتالي تمكين معالجة سياقات شديدة الطول، مع تحسين كفاءة النموذج في الوقت ذاته وصقل قدرات البرمجة وAgent، وسد القصور في قدرات متعدد الوسائط.
▍ عوامل المخاطر:
تطوير التقنيات الأساسية للذكاء الاصطناعي وتوسيع التطبيقات لا يبلغان التوقعات، وخفض تكاليف الحوسبة لا يبلغه التوقعات، واستخدام الذكاء الاصطناعي بشكل غير مناسب يسبب تأثيرات اجتماعية خطيرة، ومخاطر أمن البيانات، ومخاطر أمن المعلومات، وتصاعد المنافسة في الصناعة.
▍ استراتيجية الاستثمار: نوصي بالتركيز على محاور الاستثمار الثلاثة التالية.
1)مصنع النموذج الأصلي: يُتوقع أن يتمكن الجيل الجديد من نماذج DeepSeek من العمل جنبًا إلى جنب مع نماذج محلية أخرى، بما يدفع الذكاء الاصطناعي في الصين للتسارع نحو العالم، وفي الوقت ذاته، تدفع عملية تدريب النموذج خطوة إضافية لخفض التكاليف؛ كما أن الـ tokens الأرخص تدفع الزيادة الإجمالية في حجم استدعاءات واجهة برمجة تطبيقات النماذج الكبيرة عالميًا.
2)تطبيقات الذكاء الاصطناعي: تساعد مساواة النماذج على تخفيف القلق في السوق الناجم عن سردية التناقض بين النماذج والتطبيقات، وتدعم تطبيق Agents في مختلف الصناعات، ما يفيد شركات تطبيقات الذكاء الاصطناعي ذات الحواجز؛
3)البنية التحتية للذكاء الاصطناعي: يؤدي خفض التكاليف إلى نمو الاستخدام، ما يجعل AI Infra مستفيدًا، وتسير البنية التحتية للذكاء الاصطناعي المحلية والنماذج المحلية في اتجاهين متقابلين.
(المصدر: تقرير من قناة First Finance)