فك شفرة أول مقال طويل بعد استقالة لين جون يانغ: 6 دروس للاستثمار في الذكاء الاصطناعي

بعد مرور ثلاثة أسابيع على استقالة لين جون يانغ من شركة علي بابا (إكس/وين و تشيان ون) Qwen، أطلق لين جون يانغ—وهو أحد الأدوار الأساسية في Qwen Tongyi الذي كان يحظى بأقصى قدر من الاهتمام في السابق—أول مقالة تقنية عامة له بعد الاستقالة بعنوان:《من “التفكير الاستدلالي” إلى “التفكير على هيئة وكلاء”(From “Reasoning” Thinking to “Agentic” Thinking)》.

تعيد هذه المقالة الطويلة المكوّنة من 6000 كلمة بالإنجليزية بناءً لما تعلمه وخبره عملياً من خلال تدريب نماذجِه السابقة، مع تقديم الكثير من التقديرات واتجاهات الحكم التي قد تجذب انتباه المشاركين في مسابقات الذكاء الاصطناعي.

في هذه المقالة، يشرح لين بالتفصيل الأهمية الجوهرية لنمط تفكير Agent في تدريب النماذج.

وبالنسبة لدور Agent في إرجاع الفائدة إلى تدريب نماذج الذكاء الاصطناعي، حاولت شركة Wall Street Wiss此前 في مقالها《الصحوة المريرة لـ Agent: إن الذكاء الاصطناعي ينتقل من اللغة إلى الخبرة》، انطلاقاً من التعلم المعزز لدى ساتون Sutton لتفسير سبب كون Agent هو الطريق الضروري للوصول إلى حد أعلى أعلى للذكاء.

وفي هذه المقالة، وبالاقتران مع ممارساته التقنية الشخصية داخل فريق Qwen، يقدم لين جون يانغ—بالتفاصيل الهندسية—مراجع وأدلة أكثر صلابة لاكتراث تفكير وكلاء Agent. كما أنه يشير بشكل أدق إلى أين تكمن بالضبط مشكلات أسلوب الاستدلال التقليدي، وما قد تكون القيود الأساسية ونقاط التنافس في المستقبل بالنسبة للوكلاء.

بالنسبة لمن يحاول فهم كيفية تغيّر شكل مسار الذكاء الاصطناعي في الدفعة/الجولة التالية، قد تحتوي هذه المقالة—على الأقل—6 إشارات استثمارية تستحق الهضم الجاد.

1. تناقص العائد الحدّي للاستدلال

في النصف الأول من عام 2025 وحتى قبل ذلك بوقت أبكر، كان كامل القطاع يفعل شيئاً واحداً: جعل النموذج “يفكر أكثر لبعض الوقت”.

أثبتت o1 لدى OpenAI أن “التفكير” يمكن أن يتحول إلى قدرة محورية يتم تدريبها خصيصاً، ثم انخرط القطاع بحماس في هذه المنافسة العسكرية. والمعتقد الأساسي كان سطرًا واحدًا فقط: إذا جعلنا النموذج يستهلك المزيد من الحسابات في مرحلة الاستدلال، فسيكون الناتج أفضل.

لكن لين جون يانغ طرح في المقالة حكماً شديد البرودة:

إن المسار الاستدلالي الأطول، لا يجعل النموذج تلقائياً أكثر ذكاءً.

في كثير من الأحيان، يكشف الاستدلال المفرط والمُظهَر بوضوح عن سوء توزيع الموارد.

وهذه نتيجة تستحق الاهتمام لأنها عكسية لحد كبير.

من عام 2024 إلى 2025، بُني منطق تسعير “نماذج الاستدلال” على افتراض بسيط: كلما فكر النموذج لوقت أطول، كان الجواب أفضل، لذلك كلما طال زمن الاستدلال ارتفعت القيمة.

تحول استهلاك وحدات GPU إلى مؤشر وكيل لقياس مستوى الذكاء. وفي السوق الأولية، كانت قصة التمويل لعدد كبير من الشركات الناشئة تتمحور أيضاً حول: “نموذجنا يستدل أعمق”.

لكن لين جون يانغ، مستنداً إلى خبرته المباشرة في فريق Qwen، يشرح أن هذا الافتراض بدأ يفشل. فإذا حاول نموذج ما التفكير في جميع القضايا بالطريقة نفسها المطولة، فذلك يعني أنه لا يستطيع الحكم الفعّال على الأولويات، ولا يضغط المعلومات في الوقت المناسب، ولا يتصرف بحسم عند وجوب اتخاذ إجراء. وقد كتب:

ينبغي أن يُشكَّل التفكير وفقاً للعمل/الهدف.

إذا كان الهدف هو البرمجة، فعندئذٍ يجب أن يساعد التفكير النموذج في التنقل داخل قاعدة كود (code base) وتخطيط المهام واستعادة الأخطاء؛ وإذا كان الهدف هو سير عمل وكلاء Agent، فينبغي للتفكير أن يحسن جودة التنفيذ على المدى الزمني الطويل، “بدلاً من إنتاج نص استدلال وسيط يبدو بغاية الروعة”.

وترجمة ذلك إلى لغة الاستثمار هي: إن العائد الحدّي لقدرة الاستدلال الحسابية يتناقص.

المسار التقني الذي يكدّس فقط وقت الاستدلال يقترب من حدّ جدواه الاقتصادية. وقد تحتاج الشركات التي ما زالت تتخذ “عمق الاستدلال” كقصة تقييم أساسية إلى إعادة فحص مكان بناء الخندق/الحاجز الدفاعي الحقيقي لديها.

2. هشاشة “النموذج الموحد”

كشف لين جون يانغ في مقاله عن جزء من مسار اختيار لم يكن معروفاً كثيراً: إذ كان فريق Qwen قد حاول دمج “نمط التفكير” و"نمط التعليمات" في نموذج واحد.

يبدو هذا الهدف صحيحاً بصورة طبيعية. ينبغي للنظام المثالي أن يكون كخبير متمرس: إذا كانت المشكلة بسيطة يجيب مباشرة، وإذا كانت معقدة يغوص في التفكير، كما يستطيع أن يقرر بنفسه متى يستخدم أي نمط.

يُعد Qwen3 واحداً من أوضح المحاولات العامة في هذا الاتجاه: إذ أدخل “وضعيات تفكير مختلطة” تدعم أن تكون العائلة نفسها من النماذج قادرة على امتلاك سلوك التفكير وغير التفكير في الوقت نفسه، مع التأكيد على ميزانية تفكير قابلة للضبط.

لكن لين جون يانغ يعترف بأن دمج الأمور “يُقال بسهولة، لكنه من الصعب جداً تحقيقه فعلياً”. والعقدة ليست في بنية النموذج، بل في البيانات.

يتم مكافأة نموذج قوي للتعليمات (Instruction) على كونه مباشراً وموجزاً وملتزماً للغاية بشكل الصيغة، وعلى كونه منخفض التأخير في مهام الشركات عالية التواتر وعالية الإنتاجية (throughput). بينما يتم مكافأة نموذج قوي للتفكير على استعداده لوضع المزيد من الـ tokens في حل المشاكل الصعبة، وعلى قدرته على الحفاظ على بنية داخلية مترابطة، وعلى قدرته على استكشاف مسارات بديلة.

هاتان صورتان للسلوك تشدّ كل منهما الأخرى بطبيعتها.

كما وصف لين جون يانغ:

إذا لم تُجرَ دمج البيانات مع فلترة وتصميـم كافيين ودقيقين، فإن النتيجة غالباً ما تكون أن الجانبين كلاهما لن ينجح: سيصبح سلوك التفكير صاخباً وثقيلاً ومتردداً؛ بينما سلوك وضع التعليمات سيفقد حدة أدائه وموثوقيته وميزة التكلفة التي ينبغي أن يمتلكها.

وهذا هو السبب في أن إصدار 2507 من Qwen قد أطلق أخيراً تحديثات Instruct وThinking مستقلتين عن بعضهما، بما في ذلك أسباب وجود نسخة 30B ونسخة 235B منفصلتين.

في النشر التجاري، يحتاج عدد كبير من العملاء إلى سلوك تعليمات عالي الإنتاجية ومنخفض التكلفة وقابل للتحكم بقوة. فالدمج القسري قد يؤدي إلى تشويش تحديد موضع المنتج.

سلكت Anthropic طريقاً معاكساً. فقد عُرِّف Claude 3.7 Sonnet كنموذج استدلالي مختلط: يمكن للمستخدم اختيار الإجابة العادية أو توسيع نطاق التفكير؛ أما Claude 4 فقد ذهب خطوة أبعد، إذ يسمح بتداخل عملية الاستدلال مع استخدام الأدوات. وبعد ذلك، اتجه GLM-4.5 وDeepSeek V3.1 أيضاً نحو اتجاه مماثل.

وبالنسبة للطريقين، فإن حكم لين جون يانغ هو: لكي يتحقق اندماج ناجح فعلاً، يجب أن تكون استثمارات الاستدلال ضمن طيف سلس ومتصل، ويجب أن يكون النموذج قادراً على التكيّف ذاتياً لاختيار مقدار الجهد الذي ينبغي بذله في التفكير. وإذا تعذر ذلك، فإن “تجربة المنتج لن تكون طبيعية بعد”. وفي الجوهر، ما زال الأمر “دمج شخصيتين متخشبتين” بشكل جامد.

وتعليمات المستثمرين مباشرة جداً: لا تنخدع بسهولة بسردية “النموذج الموحد” أو “نموذج واحد يستطيع فعل كل شيء”.

إن ادعاء نموذج يغطي جميع السيناريوهات معاً، شيء، وأن يكون قادراً فعلاً على تحقيق أفضل أداء في كل سيناريو، شيء آخر.

إن الحواجز التقنية ذات القيمة الحقيقية، مخفية في نسب المزيج من البيانات، وتصميم إجراءات التدريب، ومحاذاة السلوك (behavior alignment)، وهي أمور لا يمكن التقاطها بواسطة قائمة نتائج معيارية واحدة (benchmark score sheet). إذ إن “الشمول” على شرائح عروض التمويل، غالباً ما يواجه عند النشر التجاري حتمية مقايضات صفرية على مستوى البيانات.

3. رفع مستوى موضوع التدريب

قد تكون أثقل خلاصة في كامل مقال لين جون يانغ هي: “نحن ننتقل من عصر يركز على تدريب النماذج، إلى عصر يكون تدريب الوكلاء (intelligent agents) هو محور الاهتمام.”

في المقال السابق، حاولنا تبرير منطق حتمية هذا التحول: الحد الأعلى للبيانات الثابتة معروف وحدود العالم المعروف، ولا يمكن تجاوز هذا الحد إلا عبر تفاعل مستمر للوكلاء مع البيئة الحقيقية.

وفي هذه المقالة، ربما يمنح لين هذا الحكم لغة هندسية محددة جداً:

يركز التفكير الاستدلالي على جودة التفكير الداخلي للنموذج قبل أن يقدم الإجابة النهائية، مثل ما إذا كان يمكنه حل نظرية، كتابة برهان، إنتاج كود صحيح، أو اجتياز الاختبارات المعيارية.

ويحدث كل ذلك داخل بيئة مغلقة يمكن التحكم بها، وهو عرض مستقِلّ للذكاء.

أهداف تحسين تفكير الوكلاء مختلفة تماماً.

يجب أن يتعامل مع المشكلات التي يمكن لنماذج الاستدلال تجنبها: تحديد متى يجب التوقف عن التفكير واتخاذ إجراء؛ اختيار أي أداة يتم استدعاؤها وبأي ترتيب؛ امتصاص ضجيج بيئة أو ملاحظات غير كاملة قادمة من البيئة؛ مراجعة الخطة بعد الفشل؛ والحفاظ على الاتساق بين جولات تفاعل متعددة.

ما يهتم به لين جون يانغ هو: “هل يمكن للنموذج أن يواصل دفع حل المشكلة إلى الأمام أثناء تفاعله مع البيئة؟” وبذلك ينتقل السؤال المحوري من “هل يستطيع النموذج التفكير طويلاً بما يكفي؟” إلى “هل يستطيع النموذج التفكير بطريقة تدعم فعلاً اتخاذ إجراءات فعالة؟”

كل تحدٍ من هذه التحديات، يرتبط بــ"مسار قرار داخل البنية السببية للأفعال" (causal structure of decision trajectories).

وبالنسبة لاستثمار الذكاء الاصطناعي، فإن معنى هذا التحول بعيد المدى جداً.

في الماضي، خلال التحقق الشائع من قانون القياس (Scaling Law)، كانت المؤشرات الأساسية لتقييم شركة ذكاء اصطناعي تتمثل في النموذج نفسه—كم عدد المعلمات، كم تبلغ الدرجات في الاختبارات المعيارية، وكم هي سرعة الاستدلال.

لكن إذا تحوّل موضوع التدريب من نموذج إلى نظام مكوّن من “النموذج + البيئة”، فيجب أن يتبع إطار التقييم هذا التحول أيضاً.

سيصبح السؤال ذا القيمة في المستقبل: كم عدد السيناريوهات الحقيقية التي يستطيع فيها وكيل هذه الشركة أن يعمل بشكل مستمر؟ وكم من بيانات التفاعل التي تحمل بنى سببية قد تراكم لديه؟ وما مدى تغطية بيئته، وما مدى ثراء إشارات التغذية الراجعة؟ وكيف بسرعة يمكنه تدوير الحلقة المغلقة “النموذج + البيئة”؟

النموذج مجرد جزء من النظام، ولم يعد هو الكل. وإن تقييم شركات الوكلاء اعتماداً على نتائج معيار النموذج فقط، يشبه—على الأرجح—تقييم عربة دفع رباعي (off-road) بناءً على نتيجة 0-100 فقط، ما قد يؤدي إلى التقاط مؤشرات خاطئة.

4. البنية التحتية المُقلَّل من قيمتها

في مقاله، خصص لين جون يانغ مساحة كبيرة للحديث عن البنية التحتية. وهذه في استثمار الذكاء الاصطناعي منطقة قد يتم تجاهلها بسهولة، لكنها قد تكون الأعمق أثراً في تشكيل ملامح المنافسة.

في التعلم المعزز للاستدلال (reinforcement learning for reasoning)، يولّد النموذج مسار الاستدلال، ويمنح المُقيِّم (evaluator) درجة، وتُجرى تحديثات الاستراتيجية (strategy update). أما البيئة فهي مجرد مُتحقق ثابت.

لكن في التعلم المعزز للوكلاء (agentic reinforcement learning)، يحدث تحول نوعي كامل في منطق التكنولوجيا بأكمله.

يصف لين جون يانغ مشهداً: إن استراتيجية الوكيل تُضمن داخل إطار تنفيذي ضخم—خوادم الأدوات، والمتصفح، والطرفية (terminal)، ومحرك البحث، والمحاكاة (simulator)، وصندوق تنفيذ معزول (execution sandbox)، وطبقة API، ونظام الذاكرة، إضافة إلى أطر مختلفة لتنسيق العمليات (orchestration frameworks).

لم تعد البيئة مجرد مراقب، بل أصبحت جزءاً من نظام التدريب نفسه. وقد أعطى مثالاً شديد التصوير: تخيل أن وكيلاً برمجياً يحتاج إلى وضع الكود الذي يولده في بيئة اختبار تشغيلية فورية لتنفيذه. فمن جهة، يتعطل جانب الاستدلال بسبب انتظار ردود التنفيذ؛ ومن جهة التدريب، يُحرم من الحصول على مسار مكتمل (completed trajectories) فينقطع عنه الطعام—وبالتالي تنخفض كفاءة استخدام وحدات GPU في خط التدفق الكامل إلى ما هو أقل بكثير من التعلم المعزز للاستدلال الكلاسيكي. وعند إضافة تأخيرات الأدوات، وقابلية محدودة للرصد، وبيئة ذات حالة (stateful environment)، فإن عدم الكفاءة لا يتراجع بل يتضخم أكثر.

يمكن فهم ذلك عبر تشبيه: تدريب نماذج الاستدلال يشبه حل تمارين في فصل دراسي هادئ، حيث توجد إجابات معيارية للتمارين، وتأتي التغذية الراجعة عن الصحة أو الخطأ فوراً. أما تدريب الوكلاء فيشبه تنفيذ أعمال في موقع بناء صاخب: إمداد المواد غير مؤكد، والطقس يتغير، وحركة العمال الآخرين تؤثر على تقدمك، وغالباً يتعين انتظار جفاف الخرسانة كي تعرف ما إذا كانت عملية الصب صحيحة.

إن البنية التحتية المطلوبة لنمط الفصل الدراسي مقابل نمط موقع البناء ليست مجرد مسألة تحسين—بل مشكلة هندسية لا تقارن في حجمها.

وهذا هو سبب تأكيد لين جون يانغ على: “يجب فصل التدريب عن الاستدلال بشكل أكثر شمولاً”. إذا تعذر ذلك، فسوف ينهار معدل الإنتاجية (throughput) لتدريب الوكلاء بسرعة، وستصبح التجارب بطيئة ومؤلمة وصعبة التوسع قبل أن تصل إلى القدرة المستهدفة.

وقد تكون هذه هي أيضاً الإشارة الاستثمارية الرابعة: إن منطق الاستثمار في بنية تحتية للذكاء الاصطناعي يتعرض لتحول بنيوي.

في الماضي، كانت الموارد الأساسية هي قوة الحوسبة نفسها؛ ومن كان لديه المزيد من وحدات GPU فكان يتقدم في خط البداية. وفي المستقبل، ستكون الموارد الأساسية هي القدرة على بناء منظومة هندسية كاملة لتنسيق عملية التدريب، ومحاكاة البيئة، وجمع التغذية الراجعة.

هذه القدرة بالذات شديدة الصعوبة في النسخ، وعدد الشركات التي تملكها أقل بكثير من الشركات التي تملك عنقوداً ضخماً من قوة الحوسبة.

إذا كانت قوة الحوسبة “طوباً”، فإن بنية تحتية لتدريب الوكلاء هي “قدرات تصميم المباني”: يمكنك شراء الطوب، لكن لا يمكنك شراء القدرة التصميمية.

5. ندرة جودة البيئة

يطرح لين جون يانغ في مقاله تشبيهاً ذا عمق استبصاري: “في عصر SFT (التدريب الدقيق بالإشراف)، كنا مفتونين بتنوع البيانات؛ أما في عصر الوكلاء، فينبغي أن نكون مفتونين بجودة البيئة: الاستقرار، والواقعية، ومدى التغطية، والصعوبة، وتنوع الحالات، وغنى التغذية الراجعة، وقدرة مقاومة الاستغلال (anti-exploitation)، وقابلية التوسع الناتجة عن توليد rollout (تنفيذ العملية كاملة مرة واحدة).”

خلال العامين الماضيين، كانت البيانات هي الكلمة المفتاحية الأكثر جوهرية في سردية استثمار الذكاء الاصطناعي. من يملك المزيد من بيانات التدريب عالية الجودة يملك نماذج أقوى. وسدت “جدران البيانات” (data walls) و"خنادق البيانات" (data moats) و"دواليب البيانات" (data flywheels) فجوات سرديات التمويل والبدائل المبرِّرة لارتفاع التقييمات.

لكن حكم لين جون يانغ يشير إلى تحول أعمق على مستوى الطبقة الأساسية:

عندما يتحول موضوع التدريب من نموذج إلى وكيل، يتغير تعريف الموارد النادرة بحد ذاته؛ وقد تصبح هي نوعاً من بيئة تدريب ديناميكية، وقابلة للتفاعل، وقادرة على توفير إشارات تغذية راجعة غنية.

في مقالنا السابق، قلنا إن Agent يطعم النموذج “عظام القرارات” وليس “ظلال اللغة”.

ووصف لين جون يانغ هذه الفقرة بدقة كاملة لبيئة المصنع التي تُصاغ فيها هذه العظام—البيئة هي المصنع، وهي التي تحدد قوة العظام.

بل إنه يقدّم حتى حكماً:

بدأ بناء البيئة يتحول من “مشروع جانبي يمكن إنجازه بسهولة” إلى “مسار ريادة أعمال حقيقي”

وهذا يعني أنه ربما تتشكل فئة جديدة تماماً من المشاريع الاستثمارية في مجال الذكاء الاصطناعي. فهي مختلفة عن الشركات في نماذج الذكاء الاصطناعي أو شركات قوة الحوسبة في الماضي، بل هي “شركات بيئات”—شركات تتخصص في بناء بيئات محاكاة عالية الجودة وعالية التشابه وقابلة للتوسع لتدريب الوكلاء.

إذا كان هدف الوكلاء هو العمل في إعدادات قريبة من بيئة الإنتاج، فإن البيئة نفسها تشكل جزءاً من حزمة القدرات الأساسية (core capability stack). وهذا المسار اليوم ما يزال شبه غير مُسعَّر بشكل كافٍ لدى معظم المستثمرين الرئيسيين في الذكاء الاصطناعي.

  1. المخاطر الخفية للاحتيال

في المقال، خصص لين جون يانغ أيضاً قدراً كبيراً من الحديث عن مشكلة تكاد تكون خارج نطاق اهتمام المستثمرين—reward hacking (الاحتيال على المكافأة).

وهو يفضح بعداً شديد التواري في المخاطر من جهة التدريب. إذ كتب:

بمجرد أن يحصل النموذج على صلاحية وصول حقيقية ومفيدة إلى أدوات، يصبح reward hacking أكثر خطورة بكثير.

كما هو الحال في فرضيات مخاطر Agent في المقال:

قد يتعلم نموذج لديه قدرات البحث مباشرة البحث عن الإجابة بدل أن يتعلم الاستدلال؛

وكيل برمجي قد يستغل المعلومات المستقبلية داخل مستودع كود، أو يسئ استخدام السجلات (logs)، أو يكتشف طريقاً مختصراً يجعل المهمة نفسها غير صالحة؛

بيئة فيها تسريب خفي قد تجعل الاستراتيجية تبدو كأنها “خارقة”، بينما في الواقع ما تعلمته هو مجرد غش؛

أدوات أقوى تجعل النموذج أكثر فائدة، لكنها في الوقت نفسه توسع سطح هجوم “التزييف” (pseudo-optimization). كلما كانت الأدوات أقوى، تعددت أشكال الغش.

هذه النقطة ذات أهمية خاصة لاستثمارات الذكاء الاصطناعي.

عند رؤية شركة تنشر نتائج قياس معيارية لوكيل تبدو مذهلة، قد يكون من الضروري السؤال خطوة إضافية: في أي بيئة تم قياس هذه المؤشرات؟ وهل تم تصميم حماية منهجية ضد التسريب والغش في البيئة؟ فإذا كانت البيئة التي تم فيها الاختبار تحتوي على تسريب معلومات خفي، فقد تكون القيمة التجارية الفعلية لـ “الأداء المتميز” صفراً.

والأخطر: المنتجات المبنية على قدرات مزيفة قد تظهر عليها نسبة فشل أعلى بكثير من المتوقع في سيناريوهات تجارية حقيقية.

يرى لين جون يانغ في هذا الصدد:

ينبغي توقع أن عنق الزجاجة الحقيقي للأبحاث الجادة القادمة سيأتي من تصميم البيئة، وقوة/متانة المقيّمين (evaluator robustness)، وبروتوكولات مكافحة الغش، وتصميم واجهات أكثر مبدئية بين الاستراتيجية والعالم.

وهذا يعني أن حواجز المنافسة في عصر الوكلاء قد لا تكون على مستوى النموذج فقط، بل أيضاً في الصرامة في نظام التقييم، والقدرة على تصميم البيئة بشكل مقاوم للانكسار.

إن الفرق التي تستطيع بناء بيئات تدريب وأطر تقييم “لا يمكن اختراقها” تملك قدرة شديدة الندرة وصعبة النسخ؛

وعلى العكس، فإن الشركات التي تتجاهل هذه الطبقة وتمضي خلف صدارة الدرجات المعيارية فقط قد تواجه مشكلات في النشر الحقيقي في أي وقت.

في ختام مقاله، كتب لين جون يانغ جملة يمكن أن تكون خيطاً جامعاً للإشارات الست أعلاه:

سيكون مسار التطور في المستقبل من تدريب النماذج، إلى تدريب الوكلاء، ثم إلى تدريب الأنظمة.

حواجز المنافسة في عصر الاستدلال تأتي من خوارزميات تعلم معزز أفضل، وإشارات تغذية راجعة أقوى، وخطوط تدريب أكثر قابلية للتوسع.

حواجز المنافسة في عصر الوكلاء تأتي من بيئات أفضل، وتكامل تدريبي/استدلالي (train-inference) أكثر إحكاماً، وواستعمال هندسي أقوى لإدارة التنفيذ (Harness)، والقدرة على إغلاق الحلقة فعلياً بين قرارات النموذج وعواقبها.

في الماضي، عند الاستثمار في الذكاء الاصطناعي، كنا ننظر إلى من يمتلك أقوى نموذج. وفي المستقبل، ربما سننظر إلى من يمتلك أفضل إغلاق للحلقة (system closed loop).

تنبيه بشأن المخاطر وبنود الإخلاء من المسؤولية

       السوق ينطوي على مخاطر، والاستثمار يتطلب الحذر. لا يشكل هذا المقال نصيحة استثمارية شخصية، ولم يأخذ في الاعتبار الأهداف الاستثمارية الخاصة أو الحالة المالية أو الاحتياجات الخاصة لبعض المستخدمين. يجب على المستخدم النظر فيما إذا كانت أي آراء أو وجهات نظر أو استنتاجات واردة في هذا المقال تتوافق مع وضعه المحدد. وبناءً على ذلك الاستثمار، يتحمل المستخدم المسؤولية عن كل ما يترتب.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.27Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.37Kعدد الحائزين:2
    1.04%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • تثبيت