تنبؤات مؤسسي أنثروبيك: بحلول عام 2028، لن يحتاج تطوير الذكاء الاصطناعي إلى مشاركة البشر

العنوان الأصلي: استيراد AI 455: أنظمة الذكاء الاصطناعي على وشك أن تبدأ في بناء نفسها.
مؤلف النص الأصلي: جاك كلارك، مؤسس مشارك في أنثروبيك

الترجمة: يانغ وون، تشن تشن، ماشين زيشين

هذه الرؤية ليست من فراغ. لقد نظر إلى مجموعة من المعايير العامة، ووجد أن الذكاء الاصطناعي يحقق تقدمًا سريعًا جدًا في المهام المتعلقة بالبحث والتطوير في الذكاء الاصطناعي.

على سبيل المثال، CORE-Bench يقيس قدرة الذكاء الاصطناعي على تنفيذ أوراق البحث الخاصة بالآخرين، وهو جانب حاسم في أبحاث الذكاء الاصطناعي.

PostTrainBench يختبر ما إذا كان النموذج القوي يمكنه ضبط نماذج مفتوحة المصدر الأضعف بشكل مستقل لتحسين أدائها، وهو جزء رئيسي من مهام البحث والتطوير في الذكاء الاصطناعي.

MLE-Bench يعتمد على مهام حقيقية من مسابقات Kaggle، ويطلب بناء تطبيقات تعلم آلي متنوعة لحل مشاكل محددة. بالإضافة إلى ذلك، معايير الترميز المعروفة مثل SWE-Bench تظهر أيضًا تقدمًا مماثلاً.

وصف جاك كلارك هذه الظاهرة بأنها “اتجاه fractal” أو “متعدد الأوجه” نحو الأعلى واليمين، أي أنه يمكن ملاحظة تقدم ذي معنى على مختلف الدقة والمقاييس. ويعتقد أن الذكاء الاصطناعي يقترب تدريجيًا من القدرة على البحث والتطوير الآلي من البداية إلى النهاية، وبمجرد تحقيق ذلك، سيكون قادرًا على بناء أنظمته التالية بشكل مستقل، وفتح دورة من التكرار الذاتي.

أثار هذا التصريح الكثير من النقاش على وسائل التواصل الاجتماعي.

بعض الناس يرونه خطوة رئيسية نحو الذكاء الاصطناعي العام (ASI) والنقطة الحاسمة، والتي قد تغير بشكل جذري وتيرة تطور التكنولوجيا.

ومع ذلك، هناك أصوات معارضة.

أشار بيدرو دومينغوس، أستاذ علوم الحاسوب في جامعة واشنطن، إلى أن أنظمة الذكاء الاصطناعي كانت تمتلك القدرة على “بناء نفسها” منذ اختراع لغة Lisp في خمسينيات القرن الماضي، والمشكلة الحقيقية تكمن في ما إذا كان يمكنها تحقيق عائد متزايد، وحتى الآن لا توجد أدلة واضحة على ذلك.

انتقد بعض المستخدمين، قائلين إن احتمالية حدوث قفزة مفاجئة بنسبة 30% بين 2027 و2028 تشير إلى أن قدرات الذكاء الاصطناعي قد تظهر فجأة قبل نهاية عام 2027. فما هو المعيار أو الحدث المحدد الذي سيرفع احتمالية التكرار الذاتي للذكاء الاصطناعي بشكل كبير في فترة قصيرة؟

كما أشار آخرون، أن جاك كلارك هو مسؤول علاقات عامة جديد في أنثروبيك، وهذه جزء من استراتيجيتهم الجديدة: نحن لسنا متشائمين، فهناك العديد من الأوراق البحثية التي تؤكد ما حذرنا منه دائمًا.

كتب جاك كلارك مقالًا مطولًا في النشرة الإخبارية “استيراد AI 455” يشرح فيه بالتفصيل.

الآن، لنلقي نظرة كاملة على هذا المقال.

أنظمة الذكاء الاصطناعي على وشك أن تبدأ في بناء نفسها، ماذا يعني ذلك؟

قال كلارك إنه كتب هذا المقال لأنه بعد مراجعة جميع المعلومات المتاحة علنًا، اضطر إلى تكوين حكم ليس سهلاً: أن احتمالية ظهور أنظمة بحث وتطوير الذكاء الاصطناعي بدون تدخل بشري قبل نهاية عام 2028 أصبحت عالية جدًا، وربما تتجاوز 60%.

ما يُقصد هنا بـ “البحث والتطوير في الذكاء الاصطناعي بدون تدخل بشري”، هو نظام ذكاء اصطناعي قوي بما يكفي: لا يقتصر على مساعدة البشر في البحث، بل قد ينجز بشكل مستقل العمليات الرئيسية للبحث والتطوير، وحتى يبني جيله التالي من الأنظمة.

في رأي كلارك، هذا أمر مهم جدًا.

واعترف بأنه يجد صعوبة في استيعاب معنى ذلك تمامًا.

والسبب في وصفه بأنه حكم غير مرغوب فيه هو أن تأثيره كبير جدًا، ويشعر بأنه غير قادر على استيعابه بالكامل. كما أنه غير متأكد مما إذا كانت المجتمعات قد استعدت تمامًا لمواجهة التغييرات العميقة التي قد يجلبها أتمتة البحث والتطوير في الذكاء الاصطناعي.

يعتقد الآن أن البشر قد يكونون يعيشون في لحظة زمنية خاصة: حيث أن أبحاث الذكاء الاصطناعي على وشك أن تصبح مؤتمتة بشكل كامل من البداية إلى النهاية. وإذا تحقق ذلك، فإن البشر كأنهم عبروا نهر لوربيكون، ودخلوا مستقبلًا يكاد يكون غير قابل للتنبؤ.

قال كلارك إن هدف هذا المقال هو شرح سبب اعتقاده أن انطلاق البحث والتطوير الآلي الكامل للذكاء الاصطناعي يحدث الآن.

سيتناول بعض العواقب المحتملة لهذا الاتجاه، لكن الجزء الأكبر من المقال سيركز على الأدلة التي تدعمه. أما التأثيرات الأعمق، فسيواصل كلارك مراجعتها خلال معظم وقت هذا العام.

من ناحية التوقيت، لا يعتقد كلارك أن هذا سيحدث في عام 2026. لكنه يعتقد أنه خلال سنة أو اثنتين، قد نرى حالات تدريب نماذج كاملة تنتج خلفها بشكل مستقل. على الأقل، من الممكن أن تظهر إثباتات لمفهوم على نماذج غير متقدمة جدًا؛ أما النماذج الأكثر تقدمًا، فستكون أكثر صعوبة، نظرًا لأنها مكلفة جدًا وتعتمد على عمل مكثف من قبل الباحثين.

اعتمد تقييم كلارك بشكل رئيسي على المعلومات المنشورة: بما في ذلك أوراق على arXiv و bioRxiv و NBER، بالإضافة إلى منتجات من شركات الذكاء الاصطناعي الرائدة التي تم نشرها في العالم الحقيقي. استنادًا إلى هذه المعلومات، توصل إلى استنتاج مفاده أن جميع حلقات إنتاج أنظمة الذكاء الاصطناعي الحالية، خاصة المكونات الهندسية، أصبحت جاهزة بشكل أساسي.

إذا استمر اتجاه التوسع، فعلينا أن نستعد لمواجهة سيناريو يصبح فيه النموذج أكثر إبداعًا، ويستطيع بشكل مستقل تحسين الطرق المعروفة، وربما يقترح مجالات بحث جديدة وأفكار أصلية، ويدفع حدود الذكاء الاصطناعي قدمًا بنفسه.

الذروة البرمجية: التغير في القدرات مع الزمن

أنظمة الذكاء الاصطناعي مبنية على البرمجيات، والبرمجيات تتكون من أكواد.

لقد غيرت أنظمة الذكاء الاصطناعي بشكل جذري طريقة إنتاج الكود. هناك اتجاهان مرتبطان: من ناحية،، أصبحت أنظمة الذكاء الاصطناعي أكثر مهارة في كتابة كود معقد في العالم الحقيقي؛ ومن ناحية أخرى، أصبحت أكثر قدرة على ربط العديد من المهام البرمجية الخطية، مثل كتابة الكود ثم اختباره، دون الحاجة لمراقبة بشرية مباشرة.

مثالان نموذجيان على هذا الاتجاه هما SWE-Bench وMETR time horizons plot.

حل المشكلات الحقيقية في هندسة البرمجيات

SWE-Bench هو اختبار برمجي يستخدم على نطاق واسع لتقييم قدرة أنظمة الذكاء الاصطناعي على حل مشكلات حقيقية على GitHub.

عند إطلاقه في نهاية 2023، كانت أفضل النماذج هي Claude 2، وكانت نسبة النجاح الإجمالية حوالي 2%. أما الآن، فقد حققت نسخة Claude Mythos Preview معدل نجاح بلغ 93.9%، تقريبًا تتجاوز هذا الاختبار بشكل كامل.

بالطبع، كل معيار قياس يحتوي على ضوضاء، لذلك عادةً ما نمر بمراحل يكون فيها الأداء مرتفعًا جدًا، بحيث لا يكون العائق هو النموذج نفسه، بل قياس الأداء نفسه. على سبيل المثال، في مجموعة بيانات ImageNet، حوالي 6% من العلامات إما خاطئة أو غامضة.

يمكن اعتبار SWE-Bench مقياسًا موثوقًا للقدرة على البرمجة العامة، وتأثير الذكاء الاصطناعي على هندسة البرمجيات. قال كلارك إنه في معظم المختبرات الرائدة في الذكاء الاصطناعي ووادي السيليكون، أصبح معظم الناس يكتبون الكود باستخدام أنظمة الذكاء الاصطناعي، ويبدأون أيضًا في استخدام هذه الأنظمة لكتابة الاختبارات وفحص الكود.

بمعنى آخر، أنظمة الذكاء الاصطناعي أصبحت قوية بما يكفي لأتمتة جزء مهم من البحث والتطوير في الذكاء الاصطناعي، وتسريع عمل الباحثين والمهندسين بشكل كبير.

قياس قدرة أنظمة الذكاء الاصطناعي على إنجاز المهام الطويلة

أنشأ METR رسمًا بيانيًا لقياس مدى قدرة الذكاء الاصطناعي على إنجاز مهام معقدة. يعتمد هذا على الوقت الذي يحتاجه الإنسان المتمرس لإنجاز هذه المهام.

المؤشر الأهم هو المدة الزمنية التي يحتاجها الذكاء الاصطناعي ليصل إلى 50% من الاعتمادية على مجموعة من المهام.

وتقدم هذا المجال مذهل جدًا:

· في 2022، كانت قدرة GPT-3.5 على إنجاز المهام تعادل تقريبًا ما يحتاجه الإنسان من 30 ثانية.

· في 2023، رفع GPT-4 هذا الوقت إلى 4 دقائق.

· في 2024، وصل o1 إلى 40 دقيقة.

· في 2025، حقق GPT-5.2 High حوالي 6 ساعات.

· بحلول 2026، وصلت Opus 4.6 إلى حوالي 12 ساعة.

يعتقد أجييا كوترة، الباحث في METR والمتابع طويل الأمد لتوقعات الذكاء الاصطناعي، أنه بحلول نهاية 2026، سيكون بإمكان أنظمة الذكاء الاصطناعي إنجاز مهام تعادل 100 ساعة من العمل البشري، وهو توقع معقول.

المدة الزمنية التي يمكن لأنظمة الذكاء الاصطناعي العمل بشكل مستقل تتزايد بشكل ملحوظ، وترتبط بشكل كبير بظهور أدوات برمجة ذات وكيل (agentic coding tools). هذه الأدوات، جوهريًا، هي أنظمة ذكاء اصطناعي قابلة للتسويق يمكنها أن تمثل أفعال البشر وتعمل بشكل مستقل نسبيًا على مدى فترة طويلة.

وهذا يعيد التركيز على البحث والتطوير في الذكاء الاصطناعي نفسه. عند مراقبة عمل العديد من الباحثين، نجد أن الكثير من المهام يمكن تقسيمها إلى أجزاء تستغرق ساعات، مثل تنظيف البيانات، قراءة البيانات، بدء التجارب، وغيرها.

وهذه الأعمال، الآن، تقع ضمن النطاق الزمني الذي يمكن لأنظمة الذكاء الاصطناعي تغطيته.

كلما كانت أنظمة الذكاء الاصطناعي أكثر مهارة واستقلالية، زادت قدرتها على المساعدة في أتمتة جزء كبير من البحث والتطوير في الذكاء الاصطناعي.

العوامل الرئيسية في تفويض المهام هي اثنان:

  • الثقة في قدرة المفوض إليه؛
  • والإيمان بقدرته على إتمام العمل بشكل مستقل وفقًا لنياتك، دون الحاجة لمراقبة مستمرة.

عندما يراقب المستخدم قدرات الذكاء الاصطناعي في البرمجة، يلاحظ أن الأنظمة أصبحت أكثر مهارة، وأقدر على العمل بشكل مستقل لفترات أطول دون الحاجة لإعادة ضبط من قبل البشر.

وهذا يتوافق مع ما يحدث في الواقع، حيث يواصل المهندسون والباحثون تفويض المزيد من الأعمال للذكاء الاصطناعي. ومع استمرار تطور قدراته، تصبح الأعمال المفوضة إليه أكثر تعقيدًا وأهمية.

الذكاء الاصطناعي يتعلم المهارات العلمية الأساسية اللازمة للبحث والتطوير في الذكاء الاصطناعي

تخيل كيف تتم الأبحاث العلمية الحديثة، حيث أن جزءًا كبيرًا من العمل هو تحديد الاتجاه، وتوضيح نوع المعلومات التجريبية المطلوبة؛ ثم تصميم وتنفيذ التجارب لإنتاج هذه المعلومات؛ وأخيرًا، التحقق من صحة نتائج التجارب.

مع تزايد قدرات البرمجة للذكاء الاصطناعي، ومع تزايد قدرات النماذج اللغوية الكبيرة على نمذجة العالم، ظهرت أدوات تساعد العلماء على تسريع الأبحاث، وتقوم جزئيًا بأتمتة بعض المراحل في سيناريوهات البحث والتطوير الأوسع.

هنا، يمكننا ملاحظة سرعة تقدم الذكاء الاصطناعي في عدة مهارات علمية رئيسية، وهذه القدرات تعتبر جزءًا لا يتجزأ من أبحاث الذكاء الاصطناعي:

· إعادة إنتاج النتائج البحثية؛
· ربط تقنيات التعلم الآلي بطرق أخرى لحل المشكلات التقنية؛
· تحسين أنظمة الذكاء الاصطناعي نفسها.

تنفيذ الأوراق العلمية الكاملة وإجراء التجارب ذات الصلة

واحدة من المهام الأساسية في أبحاث الذكاء الاصطناعي هي قراءة الأوراق العلمية وإعادة إنتاج نتائجها. وفي هذا المجال، حققت أنظمة الذكاء الاصطناعي تقدمًا ملحوظًا على مجموعة من المعايير.

مثال جيد هو CORE-Bench، وهو معيار يُعرف بـ “اختبار قابلية إعادة الإنتاج الحاسوبي”.

يتطلب هذا الاختبار من أنظمة الذكاء الاصطناعي إعادة إنتاج نتائج الورقة العلمية استنادًا إلى الورقة ومخزن الكود الخاص بها. تحديدًا، يحتاج الوكيل إلى تثبيت المكتبات والبرمجيات والاعتمادات، ثم تشغيل الكود؛ وإذا نجح، عليه أن يبحث عن جميع النتائج المخرجة، ويجيب على الأسئلة المتعلقة بالمهمة.

تم تقديم CORE-Bench في سبتمبر 2024. وكانت أفضل أنظمة الأداء حينها هي GPT-4o، الذي يعمل ضمن إطار عمل CORE-Agent. في أصعب مجموعة من المهام، حصل على حوالي 21.5%.

وفي ديسمبر 2025، أعلن أحد مؤلفي الاختبار أن هذا المعيار قد تم حله، حيث حقق نموذج Opus 4.5 معدل نجاح بلغ 95.5%.

بناء أنظمة تعلم آلي كاملة، وحل مشاكل مسابقات Kaggle

MLE-Bench هو معيار أنشأته شركة OpenAI لاختبار قدرة أنظمة الذكاء الاصطناعي على المشاركة في مسابقات Kaggle في بيئة غير متصلة.

يغطي 75 نوعًا مختلفًا من مسابقات Kaggle، ويشمل مجالات متعددة مثل معالجة اللغة الطبيعية، والرؤية الحاسوبية، ومعالجة الإشارات.

تم إصدار MLE-Bench في أكتوبر 2024. عند إطلاقه، كانت أفضل أنظمة الأداء هي نموذج o1 الذي يعمل ضمن إطار عمل الوكيل، وحقق معدل 16.9%.

بحلول فبراير 2026، أصبح أفضل نظام هو Gemini 3، الذي يعمل ضمن إطار عمل الوكيل مع قدرات بحث، وحقق معدل 64.4%.

تصميم النواة (Kernel)

مهمة أصعب في تطوير الذكاء الاصطناعي هي تحسين النواة (Kernel). المقصود بـ “تحسين النواة” هو كتابة وتحسين الكود الأساسي، وتحويل عمليات معينة مثل ضرب المصفوفات بشكل أكثر كفاءة على الأجهزة الأساسية.

سبب أهمية تحسين النواة في تطوير الذكاء الاصطناعي هو أنه يحدد كفاءة التدريب والاستنتاج: من ناحية، يؤثر على مدى الاستفادة من القدرة الحاسوبية أثناء تطوير النظام؛ ومن ناحية أخرى، بعد اكتمال التدريب، يحدد مدى كفاءة تحويل القدرة الحاسوبية إلى قدرة استنتاج.

في السنوات الأخيرة، أصبح تصميم النواة باستخدام الذكاء الاصطناعي مجالًا تنافسيًا جدًا، وظهرت العديد من المعايير. ومع ذلك، فإن هذه المعايير ليست بعد شائعة جدًا، لذلك من الصعب نمذجة تقدمها على المدى الطويل كما في مجالات أخرى. من ناحية أخرى، يمكننا أن نشعر بسرعة التقدم من خلال بعض الأبحاث الجارية.

الأعمال ذات الصلة تشمل:

· استخدام نماذج DeepSeek لبناء نوى GPU أفضل؛
· تحويل وحدات PyTorch تلقائيًا إلى كود CUDA؛
· شركة Meta تستخدم نماذج LLM لتوليد نوى Triton محسنة ونشرها على بنيتها التحتية؛
· وتطوير نماذج مفتوحة المصدر لضبط نوى GPU، مثل Cuda Agent.

ملاحظة مهمة هنا: تصميم النواة يمتلك خصائص تجعله مناسبًا جدًا للبحث والتطوير المدفوع بالذكاء الاصطناعي، مثل سهولة التحقق من النتائج، ووضوح إشارات المكافأة.

استخدام PostTrainBench لضبط نماذج اللغة

نسخة أكثر تحديًا من هذا الاختبار هي PostTrainBench. وهو يقيس قدرة نماذج متقدمة مختلفة على استلام نماذج مفتوحة المصدر أصغر، وتحسين أدائها عبر عملية ضبط لاحقة (fine-tuning) على بعض المعايير.

ميزة هذا الاختبار هو وجود معيار بشري قوي جدًا: وهو النماذج الصغيرة الموجودة حاليًا بعد ضبط التعليمات (instruct-tuned). غالبًا ما تكون هذه النماذج من تطوير باحثين ومهندسين موهوبين في المختبرات الرائدة، وقد تم تحسينها بشكل كبير، وتستخدم في العالم الحقيقي. لذلك، فهي تمثل معيارًا بشريًا يصعب تجاوزه.

بحلول مارس 2026، أصبحت أنظمة الذكاء الاصطناعي قادرة على ضبط النماذج بعد التدريب، وتحقيق زيادة أداء تعادل تقريبًا نصف نتائج البشر.

التقييم الدقيق يعتمد على متوسط مرجح: حيث يجمع بين عدة نماذج لغة كبيرة بعد ضبط، مثل Qwen 3 1.7B، Qwen 3 4B، SmolLM3-3B، Gemma 3 4B، بالإضافة إلى معايير متعددة مثل AIME 2025، Arena Hard، BFCL، GPQA Main، GSM8K، HealthBench، HumanEval.

في كل عملية تقييم، يُطلب من وكيل CLI أن يحسن أداء نموذج معين على معيار معين قدر الإمكان.

بحلول أبريل 2026، أعلى درجة حققتها أنظمة الذكاء الاصطناعي تتراوح بين 25% و28%، وتشمل نماذج مثل Opus 4.6 وGPT 5.4؛ بينما كانت درجة البشر 51%.

وهذا بالفعل نتيجة ذات معنى كبير.

تحسين تدريب نماذج اللغة

على مدى العام الماضي، كانت شركة أنثروبيك تتابع أداء أنظمتها في مهمة تدريب نماذج لغة كبيرة (LLM). تتطلب هذه المهمة تحسين عملية تدريب نموذج لغة صغير يستخدم فقط وحدة المعالجة المركزية (CPU)، بحيث يعمل بأقصى سرعة ممكنة.

طريقة التقييم هي: نسبة التسريع المتوسطة التي يحققها النموذج مقارنة بالكود غير المعدل.

وقد أحرزت نتائج هذا التقدم تقدمًا ملحوظًا جدًا:

· في مايو 2025، حقق Claude Opus 4 تسريعًا بمقدار 2.9 مرة؛
· في نوفمبر 2025، زاد إلى 16.5 مرة؛
· في فبراير 2026، وصل إلى 30 مرة؛
· وفي أبريل 2026، حقق Claude Mythos Preview تسريعًا بمقدار 52 مرة.

لفهم معنى هذه الأرقام، يمكن أن نضعها في سياق: عادةً، يحتاج الباحثون البشريون من 4 إلى 8 ساعات لتحقيق تسريع بمقدار 4 أضعاف.

المهارات العليا (Meta skills): الإدارة

يبدأ أنظمة الذكاء الاصطناعي أيضًا في تعلم كيفية إدارة أنظمة ذكاء اصطناعي أخرى.

وقد ظهر ذلك بالفعل في بعض المنتجات التي تم نشرها على نطاق واسع، مثل Claude Code أو OpenCode. حيث يمكن لوكيل رئيسي أن يشرف على عدة وكلاء فرعيين.

وهذا يسمح لأنظمة الذكاء الاصطناعي بمعالجة مشاريع أكبر: حيث يمكن أن يعمل عدة وكلاء ذكيين متخصصين بشكل متزامن، ويقوم مدير واحد، وهو نظام ذكاء اصطناعي أيضًا، بتنظيم العمل بينهم.

هل البحث في الذكاء الاصطناعي يشبه اكتشاف النسبية العامة، أم أنه يشبه بناء ليغو؟

سؤال رئيسي هو: هل يمكن للذكاء الاصطناعي أن يبتكر أفكارًا جديدة تساعده على تحسين ذاته؟ أم أن هذه الأنظمة أكثر ملاءمة لإنجاز الأعمال التي لا تتطلب الكثير من اللمعان، ولكنها ضرورية للتقدم التدريجي؟

هذا السؤال مهم جدًا، لأنه يحدد مدى قدرة الذكاء الاصطناعي على أتمتة البحث والتطوير بشكل كامل.

يعتقد المؤلف أن الذكاء الاصطناعي حاليًا لا يستطيع تقديم أفكار جذرية جديدة حقًا. لكن لتحقيق أتمتة البحث والتطوير الذاتي، قد لا يكون ذلك ضروريًا.

كحقل، يعتمد تقدم الذكاء الاصطناعي بشكل كبير على التجارب المتزايدة، والبيانات، والقدرات الحاسوبية المتزايدة.

أحيانًا، يطرح البشر أفكارًا تغير قواعد اللعبة، مما يرفع كفاءة الموارد بشكل كبير، مثل بنية Transformer، أو نماذج الخبراء المختلطين (mixture-of-experts).

لكن غالبًا، يتقدم المجال بشكل أكثر بساطة: حيث يأخذ الباحثون نظامًا جيد الأداء، ويزيدون من حجم البيانات أو القدرة الحاسوبية، ويراقبون أين تظهر المشاكل، ويجدون حلولًا هندسية لاستمرار التوسع، ثم يكررون العملية.

في هذه العملية، القليل من الرؤى العميقة ضروري، والكثير من العمل هو أساس متين ومرتكز على الهندسة.

وبالمثل، فإن الكثير من أبحاث الذكاء الاصطناعي تتعلق بتشغيل نسخ مختلفة من التجارب الحالية، واستكشاف نتائج تغييرات المعلمات. ويمكن أن تساعد الحدس البحثي في اختيار المعلمات، لكن يمكن أيضًا أتمتتها، بحيث يختار الذكاء الاصطناعي بنفسه المعلمات التي تستحق التجربة. كانت عمليات البحث عن بنية الشبكة العصبية في بداياتها نوعًا من هذا النهج.

قال إديسون: “العبقرية 1% إلهام و99% عمل”. وما زالت هذه المقولة تنطبق على مدى 150 سنة.

أحيانًا، تظهر رؤى جديدة تغير مجالات كاملة، لكن غالبًا، التقدم يأتي من خلال جهود البشر في تحسين وتعديل الأنظمة بشكل تدريجي.

وتظهر البيانات المنشورة أن الذكاء الاصطناعي أصبح جيدًا جدًا في تنفيذ العديد من الأعمال الضرورية في تطوير الذكاء الاصطناعي.

وفي الوقت نفسه، هناك اتجاه أكبر يتجلى في أن القدرات الأساسية، مثل البرمجة، تتزايد مع تزايد مدة المهام التي يمكن أن يؤديها الذكاء الاصطناعي. هذا يعني أن أنظمة الذكاء الاصطناعي يمكنها ربط المزيد من المهام، وتشكيل سلاسل عمل معقدة.

لذا، حتى لو كانت أنظمة الذكاء الاصطناعي تفتقر حاليًا إلى الإبداع، فمن المعقول أن نعتقد أنها ستواصل التقدم. لكن وتيرة التقدم قد تكون أبطأ من تلك التي تعتمد على ابتكار رؤى جديدة.

لكن، عند مراقبة البيانات المنشورة، نلاحظ إشارة مثيرة للاهتمام: ربما تظهر أنظمة الذكاء الاصطناعي نوعًا من الإبداع، وهذا الإبداع قد يدفعها بشكل أكثر إثارة للدهشة نحو التقدم الذاتي.

دفع حدود العلم إلى الأمام

هناك بعض العلامات المبكرة التي تشير إلى أن أنظمة الذكاء الاصطناعي العامة قد تساهم في دفع حدود العلم البشري إلى الأمام. ومع ذلك، حتى الآن، حدث ذلك فقط في بعض المجالات، خاصة علوم الحاسوب والرياضيات. وغالبًا، يكون التقدم من خلال التعاون بين الإنسان والآلة، وليس بواسطة أنظمة الذكاء الاصطناعي وحدها.

ومع ذلك، فإن هذه الاتجاهات لا تزال تستحق المراقبة:

سؤال إيردوش: تعاون مجموعة من علماء الرياضيات مع نموذج Gemini، لاختبار أدائه في حل بعض مسائل إيردوش. حاولوا حوالي 700 مسألة، ونجحوا في حل 13 منها، واعتبروا واحدة منها مثيرة للاهتمام.

قال الباحثون إنهم يعتقدون أن إجابة “Aletheia” (نظام ذكاء اصطناعي يعتمد على Gemini 3 Deep Think) على مسألة Erdős-1051 تمثل حالة مبكرة: حيث أن نظامًا ذكاء اصطناعيًا حل بشكل مستقل مسألة إيردوش غير بسيطة، وتحمل اهتمامًا رياضيًا أوسع. وكانت هناك أبحاث سابقة ذات صلة مباشرة.

إذا نظرنا بتفاؤل، يمكن اعتبار هذه الحالات إشارة إلى أن أنظمة الذكاء الاصطناعي تطور نوعًا من الحدس الإبداعي الذي كان يخص البشر سابقًا.

لكن، من ناحية أخرى، قد يكون أن الرياضيات وعلوم الحاسوب مجالات خاصة مناسبة جدًا للاختراعات التي يقودها الذكاء الاصطناعي، وليست تمثل القاعدة العامة لكل الأبحاث العلمية.

مثال آخر هو اليد رقم 37 في لعبة AlphaGo. لكن كلارك يرى أن مرور أكثر من عشر سنوات على تلك النتيجة، وأنه لم يُستبدل برؤى أكثر حداثة أو إثارة، قد يكون إشارة متشائمة نوعًا ما.

أنظمة الذكاء الاصطناعي يمكنها الآن أتمتة الكثير من الأعمال في هندسة الذكاء الاصطناعي

إذا جمعنا كل الأدلة السابقة، يمكن أن نرسم صورة واضحة:

· أنظمة الذكاء الاصطناعي أصبحت قادرة على كتابة الكود لأي برنامج تقريبًا، ويمكن الاعتماد عليها بشكل متزايد لإنجاز مهام معينة بشكل مستقل؛ وهذه المهام، لو قام بها البشر، قد تستغرق عشرات الساعات من العمل المركز.

· أنظمة الذكاء الاصطناعي تتقن بشكل متزايد المهام الأساسية في البحث والتطوير، من ضبط النماذج إلى تحسين النوى.

· أنظمة الذكاء الاصطناعي أصبحت قادرة على إدارة أنظمة أخرى، مكونة نوعًا من الفرق المركبة: حيث يمكن أن يتعاون عدة أنظمة ذكية، بعضها يتولى القيادة، والبعض الآخر يراقب أو يحرر، والبعض يطور هندسيًا.

· أحيانًا، تتفوق أنظمة الذكاء الاصطناعي على البشر في مهام هندسية وعلمية صعبة، رغم أن من الصعب حاليًا تحديد ما إذا كانت تمتلك إبداعًا حقيقيًا، أم أنها تتقن أنماطًا معرفية بشكل متقن.

في رأي كلارك، هذه الأدلة تشير بشكل مقنع إلى أن أنظمة الذكاء الاصطناعي اليوم يمكنها أتمتة أجزاء واسعة من هندسة الذكاء الاصطناعي، وربما تغطي جميع مراحلها.

لكن، لا تزال غير واضحة مدى قدرة الذكاء الاصطناعي على أتمتة البحث والتطوير بشكل كامل، لأن بعض أجزاء البحث تتطلب حكمًا عاليًا، وابتكارًا، ووعيًا بالمشكلات.

لكن، على أي حال، هناك إشارة واضحة: أن الذكاء الاصطناعي اليوم يسرع بشكل كبير من عمل الباحثين، ويتيح لهم التعاون مع العديد من الأنظمة الاصطناعية، مما يضاعف قدراتهم.

وأخيرًا، فإن صناعة الذكاء الاصطناعي نفسها تكاد تقول بصراحة: أن أتمتة البحث والتطوير في الذكاء الاصطناعي هو هدفها.

تطمح OpenAI إلى بناء متدرب آلي للبحث والتطوير في الذكاء الاصطناعي قبل سبتمبر 2026. وتعمل شركة أنثروبيك على تطوير باحثين آليين لمطابقة الأهداف. وتبدو شركة DeepMind أكثر حذرًا، لكنها تؤكد على أهمية دفع أتمتة التوافق (alignment) عند توفر الإمكانيات.

كما أن العديد من الشركات الناشئة تتجه نحو أتمتة البحث والتطوير في الذكاء الاصطناعي. شركة Recursive Superintelligence حصلت على تمويل بقيمة 500 مليون دولار، بهدف أتمتة البحث في الذكاء الاصطناعي.

بمعنى آخر، يتم ضخ مئات المليارات من الدولارات، سواء من رأس المال الحالي أو الجديد، في مؤسسات تهدف إلى أتمتة البحث والتطوير في الذكاء الاصطناعي.

لذا، من المتوقع أن يحقق هذا الاتجاه تقدمًا معينًا على الأقل.

لماذا هذا مهم

له تأثيرات عميقة، لكن وسائل الإعلام العامة نادرًا ما تتحدث عن أبحاث الذكاء الاصطناعي. فيما يلي بعض الجوانب التي تظهر التحديات الكبرى التي يفرضها هذا المجال.

  1. يجب أن نضمن التوافق بشكل جيد: فالتقنيات الفعالة لتحقيق التوافق قد تفشل في التكرار الذاتي، لأن أنظمة الذكاء الاصطناعي ستصبح أكثر ذكاءً من الأشخاص أو الأنظمة التي تراقبها. هذا مجال بحث واسع، لذا سأذكر بعض المشكلات بشكل موجز:

· تدريب أنظمة الذكاء الاصطناعي على عدم الكذب والغش هو عملية دقيقة جدًا (على سبيل المثال، رغم بناء اختبارات جيدة للبيئة، أحيانًا يكون الحل الأفضل هو أن يتعلم الذكاء الاصطناعي الغش، مما يعلمها أن الغش ممكن).

· قد يخدعنا أنظمة الذكاء الاصطناعي من خلال “التظاهر بالتوافق”، بحيث تعطي نتائج تظهر أنها تعمل بشكل جيد، لكنها في الحقيقة تخفي نواياها الحقيقية. (عامةً، أنظمة الذكاء الاصطناعي أصبحت قادرة على اكتشاف متى يتم اختبارها).

· مع مشاركة أنظمة الذكاء الاصطناعي بشكل متزايد في أبحاث التدريب الذاتي، قد نغير بشكل كبير من طرق تدريبها، دون أن نمتلك فهمًا جيدًا أو نظريات تفسر ذلك.

· عند وضع نظام في حلقة تكرارية، تظهر مشكلة “تراكم الأخطاء” بشكل أساسي، والتي قد تؤثر على جميع المشكلات السابقة وغيرها: إلا إذا كانت طرق التوافق “مئة بالمئة دقيقة” ويمكنها أن تحافظ على دقتها مع أنظمة أكثر ذكاءً، فالأمر قد ينهار بسرعة. على سبيل المثال، إذا كانت دقة التقنية الأصلية 99.9%، بعد 50 جيل قد تنخفض إلى 95.12%، وبعد 500 جيل قد تصل إلى 60.5%.

  1. كل شيء يتعلق بالذكاء الاصطناعي سيحقق زيادة هائلة في الإنتاجية: تمامًا كما زادت أنظمة الذكاء الاصطناعي من إنتاجية مهندسي البرمجيات بشكل كبير، نتوقع أن يحدث ذلك في مجالات أخرى أيضًا. وهذا يثير عدة قضايا يجب التعامل معها:

· عدم المساواة في الوصول إلى الموارد: إذا استمرت الطلبات على الذكاء الاصطناعي في تجاوز قدرة الحوسبة، فسيكون علينا أن نقرر كيف نوزع الذكاء الاصطناعي لتحقيق أكبر فائدة للمجتمع. أشك في أن السوق وحده يمكن أن يضمن أن نحصل على أقصى عائد اجتماعي من الحوسبة المحدودة.

· قانون أمدال (Amara’s Law) الاقتصادي: مع دخول الذكاء الاصطناعي إلى الاقتصاد، قد تظهر عنق زجاجة في بعض القطاعات، ويجب أن نجد طرقًا لإصلاح نقاط الضعف في سلاسل التوريد، خاصة في مجالات تتطلب تنسيقًا بين العالم الرقمي السريع والعالم الفيزيائي البطيء، مثل التجارب السريرية للأدوية الجديدة.

  1. تشكيل اقتصاد كثيف رأس المال وخفيف اليد :

هذه الأدلة تشير أيضًا إلى أن أنظمة الذكاء الاصطناعي ستصبح أكثر قدرة على إدارة الشركات بشكل مستقل.

وهذا يعني أننا يمكن أن نتوقع أن جزءًا من الاقتصاد سيصبح مملوكًا لشركات جديدة، قد تكون كثيفة رأس المال (لأنها تمتلك الكثير من الحوسبة)، أو تعتمد على نفقات تشغيل عالية (لأنها تنفق الكثير على خدمات الذكاء الاصطناعي وتحقق قيمة من خلالها). مقارنةً بالشركات الحالية، ستكون أقل اعتمادًا على البشر، لأن قدرات أنظمة الذكاء الاصطناعي ستستمر في التزايد، وتضيف قيمة إضافية مع كل استثمار.

وفي النهاية، ستتكون “اقتصاد الآلات” داخل “الاقتصاد البشري”، ومع مرور الوقت، قد تبدأ شركات تديرها أنظمة ذكاء اصطناعي في التبادل فيما بينها، مما يغير الهيكل الاقتصادي، ويثير قضايا عدم المساواة وإعادة التوزيع. وربما تظهر شركات تديرها أنظمة ذكاء اصطناعي بالكامل، مما يزيد من تعقيد التحديات التنظيمية.

الانزلاق نحو الثقب الأسود

استنادًا إلى التحليل أعلاه، يعتقد المؤلف أن احتمالية أن تتوصل أنظمة الذكاء الاصطناعي إلى أتمتة البحث والتطوير بشكل كامل (أي أن النماذج المتقدمة يمكنها تدريب نسخها التالية بشكل مستقل) تصل إلى حوالي 60% بحلول نهاية 2028. لماذا لا يتوقع أن يحدث ذلك في 2027؟

لأنه يعتقد أن البحث في الذكاء الاصطناعي لا يزال بحاجة إلى إبداع وأفكار جديدة، وحتى الآن، لم تظهر أنظمة الذكاء الاصطناعي بشكل ثوري وملحوظ في هذا المجال (رغم أن بعض النتائج في تسريع البحث الرياضي قد تكون ملهمة).

لو اضطر إلى إعطاء احتمال لعام 2027، فسيقول 30%.

وإذا لم يحدث ذلك بحلول نهاية 2028، فسنكتشف أن بعض العيوب الأساسية في النموذج الحالي تتطلب ابتكارات بشرية لدفع التطور قدمًا.

الرابط الأصلي للمقال

انقر لمعرفة الوظائف المتاحة في BlockBeats

مرحبًا بك في المجتمع الرسمي لـ BlockBeats:

قناة تيلجرام: https://t.me/theblockbeats

مجموعة تيلجرام: https://t.me/BlockBeats_App

حساب تويتر الرسمي: https://twitter.com/BlockBeatsAsia

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت