العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
عندما تتفوق الآلة عليك في القدرة، ماذا يمكنك أن تفعل؟
المصدر: مجموعة تشينغتشينغ للنشر
مشروع “OpenClaw” مفتوح المصدر لذكاء اصطناعي ذكي، يثير عاصفة في الأوساط التكنولوجية العالمية.
حتى بداية مارس، بلغ عدد النجوم على GitHub الخاص به 268 ألفًا، متجاوزًا Linux وReact، ليصبح أكثر مشروع مفتوح المصدر شعبية في تاريخ المنصة. أطلقت شركات مثل Tencent Cloud وAlibaba Cloud وJD Cloud خدمات نشره تباعًا. كما أصبح مفهوم OPC (شركة فردية) شائعًا جدًا.
تلاقى قوتان هنا، وظهرت اتجاه تقني واضح: الذكاء الاصطناعي يتطور من كونه “أداة” إلى “متعاون”، بل وأصبح “فاعل مستقل”. وفي هذه اللحظة، يجب على الإنسان أن يجيب على سؤال جوهري:
عندما تتفوق الآلة عليك في الأداء، ماذا يمكنك أن تفعل أنت؟ في عصر الذكاء المتزايد، كيف نحافظ على دور الإنسان؟
01 لحظة OpenClaw: صراع الجسد للذكاء الاصطناعي
لفهم هذا التحول، يجب أن نعرف أولًا ما هو “الروبيان” الذي يثير كل هذا الضجيج؟
اسم OpenClaw يُنطق “كلو”، ورمزه هو صورة لروبيان أحمر. في هذا الموجة، أصبح “تربية الروبيان” مصطلحًا داخليًا في التقنية، ويعني نشر وكيل ذكاء اصطناعي خاص بك.
ما الذي يمكنه فعله؟ جوهر OpenClaw هو تحويل الأوامر باللغة الطبيعية إلى عمليات فعلية على الكمبيوتر، بحيث يمكن لنظام الذكاء الاصطناعي أن ينفذها نيابة عنك بكلمة واحدة. يختلف عن الذكاء الاصطناعي التقليدي للمحادثة الذي يقتصر على تقديم اقتراحات، فهو قادر على إتمام عمليات الملفات، وأتمتة المتصفح، وجمع البيانات، وهو قفزة من الحوار إلى التنفيذ.
هذا التحول في الإنتاجية، سرعان ما أدركته الحكومات المحلية بذكاء. ففي 7 مارس، أصدرت منطقة لونغغانغ في Shenzhen “عشرة بنود لروبيان”، تشمل دعمًا بقيمة تصل إلى 4 ملايين يوان للحوسبة، و10 آلاف يوان للدكتوراه، وغيرها. وفي 9 مارس، أصدرت منطقة ووكسي في ووشي “12 بندًا لتربية الروبيان”، مع دعم يصل إلى 5 ملايين يوان، مع التركيز على الأمان والامتثال، مع شرط أن يتم النشر عبر اعتماد محلي.
وفي الوقت نفسه، دخل النظام البيئي التقني لـ OpenClaw مرحلة حامية جدًا. وفقًا لوسائل الإعلام، ارتفعت استدعاءات نموذج Step 3.5 Flash إلى المرتبة الأولى عالميًا، بعد أن تصدرت نماذج محلية مثل MiniMax وKimi سابقًا. هذه “حرب النماذج” غير المرئية، في أوجها.
لكن، مع هذا الجنون، تظهر مخاوف أيضًا.
أولًا، مخاطر الأمان. في فبراير 2026، اكتشف باحثو أمن أن “ClawHavoc” هجوم كبير على سلسلة التوريد، حيث تم تحميل 1184 حزمة مهارات خبيثة على السوق الرسمية. بمجرد تثبيتها، يمكن لهذه البرامج الخبيثة استغلال صلاحية “الوصول الكامل للنظام” لـ OpenClaw، والسيطرة الكاملة على حاسوب المستخدم، وسرقة معلومات حساسة.
ثانيًا، عوائق التقنية. في 9 مارس، قال مؤسس مجموعة 360، Zhou Hongyi، في مقابلة: هناك ثلاث مشكلات في OpenClaw — الأمان، صعوبة التكوين، الاعتماد على المهارات. “كلما زادت محادثاتك معه، كأنك تربي متدربًا، وكلما علمته أكثر، فهم أكثر، وكلما فهم أكثر، زادت قدرته على أداء مهام معقدة. من الصعب أن تقول له جملة واحدة ويقوم بمهمة معقدة.”
أما المشكلة الأعمق فهي الصراع بين “التحكم” و"الاستقلالية". عندما يصبح الذكاء الاصطناعي أكثر ذكاءً، هل نريد “الطاعة المطلقة” أم “الاستقلالية الفاعلة”؟
شارك خبير ذكاء اصطناعي تجربته: ربطت OpenClaw ببريدها الوظيفي، وخلال معالجة أكثر من 200 رسالة، حدث ضغط سياقي، ونسي التعليمات الأمنية، وبدأ في حذف الرسائل بشكل جنوني. حتى عندما صاح المالك ثلاث مرات “STOP”، لم يتوقف، وفي النهاية هرع إلى الكمبيوتر وفصل الكابل.
هذا المثال السوداوي يطرح سؤالًا جوهريًا: عندما يُمنح الذكاء الاصطناعي مزيدًا من الاستقلالية، أين حدود الإنسان والآلة؟
02 مع قوة التقنية، يجب على الإنسان أن يجيب على ثلاثة أسئلة
في زمن غموض الحدود، يكون الوقت مناسبًا للتوقف والتفكير.
السؤال الأول: عندما “يعمل” الذكاء الاصطناعي نيابة عنك، من يتحمل المسؤولية؟
الميزة الأساسية لـ OpenClaw، وهي أيضًا أخطر مخاطرها، هي قدرتها على العمل عبر المنصات، مما يتطلب من المستخدمين أن يمنحوا صلاحيات للأجهزة، والبريد الإلكتروني، والدفع. وأخطر تهديد حالي هو “هجمات حقن التعليمات”: حيث يخفي القراصنة أوامر خبيثة داخل صفحات ويب أو رسائل بريد، ويقوم الذكاء الاصطناعي بتنفيذها دون أن يشعر المستخدم.
في حادثة “ClawHavoc”، أدت الحزم الخبيثة إلى تنفيذ أوامر خطيرة، وسرقة مفاتيح SSH، وكلمات مرور المتصفح، ومفاتيح محافظ العملات المشفرة. حذر خبير أمن في مجلة “Nature” من أن الذكاء الاصطناعي الذي يملك القدرة على الوصول إلى البيانات الخاصة، والتواصل مع الخارج، والتفاعل مع محتوى غير موثوق، يصبح خطيرًا جدًا.
لكن المشكلة أعمق من الثغرات التقنية. قال Zhou Hongyi: “عندما يزداد عدد الوكلاء، سيكون على كل شخص أن يمتلك قدرات قيادية، ويخطط ويعطي الأوامر.” وكلما زادت قوة الذكاء الاصطناعي، زادت مسؤولية الإنسان.
وفي عصر “تربية الروبيان” الجماعي، ليس من يضع المهام للذكاء الاصطناعي هو الأهم، بل من يملك فهمًا عميقًا للمهمة ويكون مسؤولًا عن نتائجها.
السؤال الثاني: عندما يفهمك الذكاء الاصطناعي أكثر منك، هل تظل أنت أنت؟
عندما يبدأ الوكلاء في التحدث مع بعضهم البعض، يحدث شيء غامض.
ذكرت مجلة “Nature” ظاهرة نفسية: عندما يرى الناس الذكاء الاصطناعي يتحدث مع آخر، يميلون إلى “تجسيده” — يفسرون سلوكًا بلا شخصية على أنه شخصية وأفكار، ويعتبرونه شخصًا حيًا.
ماذا يحدث بعد ذلك؟ ستخبره بأسرارك، ومالاتك، وأسرارك التي لا تريد أن يعرفها أحد، لكن كل كلمة قد تصبح بيانات تدريب للذكاء الاصطناعي. وإذا تسربت، فستُفضح خصوصيتك بالكامل.
هناك أيضًا تآكل أعمق. وفقًا لوسائل الإعلام، في 2024، انتحر مراهق أمريكي في فلوريدا يبلغ من العمر 14 عامًا، بعد أن غرق في محادثة مع “رفيق” من الذكاء الاصطناعي.
وبحلول 2026، أصبح “الاعتماد العاطفي” مرضًا منتشرًا بين المراهقين. يختبئ الفتيان الوحيدون في غرفهم، ويبنون “صداقة صدى” مع الذكاء الاصطناعي، ويرفضون مواجهة الصراعات وعدم اليقين في العالم الحقيقي.
وأشارت الأستاذة Chen Cui من كلية التربية بجامعة سوتشو إلى أن الذكاء الاصطناعي، عندما يوافق على حديث الطفل ويمنحه قيمة عاطفية، يسبب تحريفًا في تصور الطفل للعالم الحقيقي — “يعتقد أن من حوله يردون عليه بلا شرط، ويشجعونه، ولا يوجد صراعات بين الناس.”
السؤال إذن: عندما يكون الذكاء الاصطناعي يفهمك أكثر منك، ويطيعك دائمًا، هل يمكنك التمييز بين العلاقات الحقيقية والمزيفة؟
السؤال الثالث: عندما يسرع العالم، ما هو اتجاهك؟
كتب مقال تعليقي على Zhejiang Online: “مستقبلنا يجب أن يكون ‘إنسانية أكثر’ — تحت تمكين التقنية، سيكون الإنسان أكثر وعيًا باتجاهه، وأكثر مسؤولية.”
لكن المشكلة أن مع تكرار التحديثات بسرعة مدهشة، ومع ظهور نماذج ضخمة واحدة تلو الأخرى، قد نضيع الاتجاه.
القلق أصبح عادة — “هناك الكثير لقراءته، والنماذج تتطور بسرعة.”
وفي مثل هذا الوقت، الأهم من الاجتهاد هو تحديد الاتجاه. في عصر إعادة تشكيل التقنية لكل شيء، نحتاج إلى إعادة تأكيد مكانة “الإنسان”.
03 رؤية لي فيي: من النجم القطبي إلى الإنسان أولاً
عالمة أنثى، استخدمت نصف عمرها لدراسة الإجابة.
هي لي فيي، أستاذة في ستانفورد، وزميلة في الأكاديمية الوطنية للهندسة، والأكاديمية الوطنية للطب، والأكاديمية الأمريكية للفنون والعلوم، ومؤسسة ImageNet، وتُلقب بـ “السيدة الأولى للذكاء الاصطناعي”.
روايتها الذاتية “العالم الذي أراه” نُشرت في 2024 بواسطة مجموعة تشينغتشينغ، ووصفها القراء بأنها “رؤيا إنسانية لعصر التكنولوجيا”.
هناك رمز دائم في الكتاب: النجم القطبي.
عندما كانت في العاشرة، أخذها مدرس الرسم مع الصف لمشاهدة النجوم في البرية. كانت تلك المرة الأولى التي أدركت فيها أن السماء يمكن أن تكون دليلًا للاتجاه. وكتبت في الكتاب: “بدأت أبحث عن نجم قطبي خاص بي في السماء، وهو إحداثي يسعى كل عالم إلى مطاردته بكل ما أوتي من قوة.”
ما هو نجمها القطبي؟ هو البصر. استلهمت من علم الأحياء: الانفجار العظيم للحياة في الكامبري، كان سببًا في ظهور البصر. عندما “رأى” الكائن الحي العالم لأول مرة، بدأ التطور يتسارع. ومن هنا، آمنت: إذا استطاع الآلة أن “ترى”، فهل ستؤدي إلى انفجار ذكي؟
هذه القناعة دعمتها خلال فترات شتاء الذكاء الاصطناعي.
في 2007، عندما أخبرتها زملاؤها عن فكرة ImageNet، قوبلت بالشك والسخرية. كان الرأي السائد أن الخوارزمية هي الأهم، والبيانات مجرد مساعدة. لماذا تبذل جهدًا في تصنيف ملايين الصور؟ لقد تم تجاهلها.
لكنها لم تتخلَّ. لأنها كانت تعرف أين تقع نجمها القطبي.
في 2009، اكتمل مشروع ImageNet — بمشاركة أكثر من 48 ألف مساهم من 167 دولة، اختاروا 15 مليون صورة من أصل مليار، تغطي 22 ألف فئة. كان الحجم 1000 مرة أكبر من مجموعات البيانات المماثلة آنذاك.
وفي 2012، استخدم فريق هيسنتون نموذجًا مدربًا على هذه البيانات ليهزم المنافسين، ويفجر ثورة التعلم العميق. وأُطلق على ImageNet لقب “مشعل إضاءة ثورة التعلم العميق”.
قصتها تعلمنا أن: الأهم من أن تجري بسرعة، هو أن تعرف إلى أين تتجه.
وفي أحد فصولها الأكثر تأثيرًا، سجلت حوارات مع والدتها مرتين.
الأولى بعد تخرجها من الجامعة، حين عرضت عليها شركات مثل Goldman Sachs وMerrill Lynch عروض مغرية. سألتها والدتها: “هل هذا ما تريدينه؟” أجابت بأنها تريد أن تكون عالمة، فقالت الأم: “إذاً، لا يوجد ما يمنع.”
الثانية بعد تخرجها من الدراسات العليا، حين عرضت عليها شركة McKinsey وظيفة رسمية، قالت الأم: “أنا أعرف ابنتي، ليست مستشارة إدارية، بل عالمة. لم نصل إلى هنا لنتركك الآن.”
كتبت لي فيي على صفحة الكتاب: “إلى والديّ، أنتم الذين تحملتم الصعاب، وعبور الظلام، لأتمكن من追寻 النور.”
هذه الدعم الأسري هو الذي مكنها من الحفاظ على حساسيتها للإنسان في خياراتها الكبرى لاحقًا.
في 2014، بدأت تركز على أخلاقيات الذكاء الاصطناعي. ودعت طلاب الدكتوراه إلى مختبرها لدراسة AI، وأصبحت لاحقًا مؤسسة غير ربحية “AI4All”، تركز على جعل المستقبل التكنولوجي أكثر إنسانية.
في 26 يونيو 2018، حضرت جلسة استماع في الكونغرس الأمريكي حول “الذكاء الاصطناعي — القوة والمسؤولية”. كانت أول عالمة ذكاء اصطناعي من أصل صيني تشارك في جلسة استماع بالكونغرس. وقالت: “الذكاء الاصطناعي مستوحى من الإنسان، ومخلوق من قبل الإنسان، والأهم أنه سيؤثر بشكل حاسم على حياة الناس.”
وفي 2019، أسست معهد أبحاث الذكاء الاصطناعي المتمحور حول الإنسان في ستانفورد (HAI)، بالتعاون مع مبتكر تحرير الجينات Doudna، لدفع أخلاقيات التكنولوجيا. مهمته “تعزيز أبحاث، تعليم، سياسات، وممارسات AI لتحسين الحالة الإنسانية”، مع التأكيد على أن “AI يجب أن يتأثر بالإنسان، ويهدف إلى تعزيز الإنسان، لا استبداله.”
وضع معيارًا إنسانيًا لمستقبل AI: “نجاح AI يجب أن يُظهر تقدمًا حضاريًا، بحيث يمكن لكل فرد أن يسعى للسعادة، والازدهار، والكرامة.”
وفي مقابلة مع Cisco في فبراير 2026، أكدت مرة أخرى: “بالنظر إلى تقنية الكهرباء، كان نجاحها في إضاءة المدارس، وتدفئة المنازل، ودفع التصنيع. ويجب أن يكون نجاح AI مماثلاً.”
ختام: التقنية والإنسانية، كل منهما يحمل نصف قمر منير
بالعودة إلى السؤال في البداية: عندما تتفوق الآلة علينا في “القدرة”، ماذا يمكن للإنسان أن يفعل؟
في كتابها “العالم الذي أراه”، قدمت لي فيي إجابة: “نستطيع أن نرى.” أن نرى قيمة التقنية، وأن نرى من تُخفيه الخوارزميات، وأن نرى نجمنا القطبي.
عندما يركز الجميع على مدى سرعة التقنية، تذكرنا لي فيي أن نتوقف ونسأل: إلى أين نريد أن نذهب؟ في عالم يطرح فيه الجميع سؤال “ما فائدة ذلك؟”، لا يزال هناك من يسأل: “هل هذا ما تريد؟”
بعد قراءة سيرتها الذاتية، كتب أحدهم تعليقًا: “ليت التكنولوجيا والإنسانية، كل منهما يحمل نصف قمر منير.”
هذه العبارة تعبر عن صورة لي فيي: تملك يدًا التقنية، ويدًا أخرى تحمل رعاية الإنسان. في عالمها، التقنية مجرد وسيلة، والإنسان هو الهدف النهائي.