Karpathy مصاب بـ "مرض الذهان الذكاء الاصطناعي"! لا يأكل ولا ينام 16 ساعة يومياً يربي جراد البحر

【مقدمة من Xinzhiyuan】كارباتي يكشف عن نفسه: لقد أصبت بمرض نفسي بسبب الذكاء الاصطناعي! في هذه الأيام، أصبح على حافة الجنون، حيث يقضي 16 ساعة بدون أكل أو نوم في تطوير الوكيل، ويشعر بقلق شديد من أنه قد يستهلك أقصى حد من التوكنات (tokens)، ولا يستطيع التوقف أبداً…

وفي اللحظة الأخيرة، كشف أندريه كارباتي عن نفسه قائلاً: لقد أصبت بمرض نفسي بسبب الذكاء الاصطناعي!

ولم يكن يمزح.

وفي الآونة الأخيرة، ظهر كارباتي في بودكاست، وتحدث مع المستثمر في رأس المال المغامر سارة غو.

هذا السابق المؤسس المشارك لـOpenAI، والمدير السابق لذكاء اصطناعي في تسلا، لم يكتب سطراً واحداً من الكود بيده منذ ديسمبر من العام الماضي.

نسبة كتابة الكود يدوياً مقابل الاعتماد على الوكلاء الذكيين انقلبت تماماً من 80/20 إلى 20/80.

يعمل لمدة 16 ساعة يومياً، ويقوم بمهمة واحدة فقط: إعطاء الأوامر للوكلاء الذكيين.

قبل خمسة أشهر، كان يقول إن الوكيل هو قمامة، وبعد خمسة أشهر، يعترف بأنه مدمن عليه، ويجد الأمر لذيذاً.

قبل خمسة أشهر، كان يقول إن الوكيل «غير فعال على الإطلاق».

هذا التحول مذهل لأنه حدث خلال فترة زمنية قصيرة جداً.

في أكتوبر 2025، ظهر كارباتي في بودكاست دراكش باتيل، وكان نبرته مختلفة تماماً.

قال إن الصناعة لا ينبغي أن تسميها «سنة الذكاء الوكيل»، بل «عشر سنوات من الوكلاء».

مشاكل مثل ضعف قدرات الإدراك في النماذج، عدم كفاية تعدد الوسائط، ضعف أنظمة الذاكرة، وغيرها… بشكل عام، المهام المعقدة لا يمكن حلها على الإطلاق.

لكن بعد شهرين، وجه لنفسه صفعة قوية.

في ديسمبر، تجاوز كلود وكودكس عتبة التماسك—لم يعد الوكيل مجرد أداة يمكن استخدامها بصعوبة، بل أصبح فعلاً قادراً على إنجاز الأعمال.

إذا وجدت مهندس برمجيات جالساً على مكتبه، وانظر إلى ما يفعله، منذ ديسمبر، تغيرت بشكل كامل طريقة عمله الافتراضية عند تطوير البرمجيات.

اعترف كارباتي بأنه فقد السيطرة، وقال إنه أصيب بمرض نفسي بسبب الذكاء الاصطناعي!

هذه الثورة تحدث بصمت، وبتواتر غير مرئي. في هذا اللقاء، وصف كارباتي حالته بنبرة تكاد تكون غير مستقرة: لم يعد «يكتب الكود»، بل يقول إنه حتى كلمة «كتابة الكود» لم تعد دقيقة.

ما يفعله كل يوم هو «التعبير عن إرادتي للوكلاء الذكيين لمدة 16 ساعة يومياً». وبحسب قوله، «تم فتح مفتاح معين».

كان سابقاً «80% أكتب الكود بنفسي + 20% أستخدم الذكاء الاصطناعي»، والآن أصبح «20% أكتب بنفسي + 80% أتركه للذكاء الاصطناعي»، وربما أكثر من ذلك.

الآن، البشر لم يعودوا يتحكمون في الكود، بل يتحكمون في المهام.

إذا كانت حقبة Copilot هي مساعدة ذكاء اصطناعي واحدة، فإن أنظمة التعاون بين عدة وكلاء الآن تمثل شكلاً جديداً تماماً. على شاشة مهندس، لم تعد هناك محرر كود، بل عدة وكلاء يعملون في آنٍ واحد، كل واحد مسؤول عن مهمة مختلفة، وتستغرق كل مهمة حوالي 20 دقيقة، ثم ينتقل بين الوكلاء.

لم يعد الأمر برمجة، بل إدارة فريق من الذكاء الاصطناعي.

اعترف كارباتي: لقد دخلت في حالة مرض نفسي بسبب الذكاء الاصطناعي!

وفي الأيام الأخيرة، ظل في هذه الحالة. فمع استمرار تجاوز حدود قدرات الذكاء الاصطناعي، تظهر إمكانيات جديدة يومياً، وتظل دائماً تشعر أن «الأمر يمكن أن يكون أقوى»، والأمر الأكثر رعباً هو أن هذا المجال «لا نهائي»!

يمكنك تشغيل المزيد من الوكلاء في وقت واحد، وتصميم عمليات أكثر تعقيداً، وتحسين الأوامر تلقائياً، وبناء أنظمة تكرارية…

وفي النهاية، ستصل إلى حالة لا تعرف فيها «أين الحد الأقصى».

قال كارباتي إنه عندما ينتظر أن يكمل وكيل مهمة معينة، يكون رد فعله الأول في ذهنه: «هل يمكنني فتح المزيد من الوكلاء؟» وولدت قلق جديد: هل لم أستخدم الذكاء الاصطناعي بأقصى قدر ممكن؟

حتى أنه قال إنه يشعر بالقلق من عدم استهلاك التوكنات (tokens) بشكل كامل.

بإجمال، يبدو الأمر وكأنك تلعب لعبة لا نهائية: تكرار ردود الفعل يتقصّر، والتحفيز يتزايد باستمرار، والحصول على مكافآت فورية يجعل الأمر إدمانياً. تضع مهاماً جديدة، وتفتح وكلاء، ولا تستطيع التوقف أبداً! جوهر هذا «الجنون النفسي للذكاء الاصطناعي» هو إشارة واضحة: لقد دخلنا عالماً جديداً، لكننا لا نعرف كيف نعيش فيه بعد. هل لديك القدرة على إدارة نظام ذكاء اصطناعي غير محدود النمو؟ عندما تتعثر، رد فعلك الأول ليس «النموذج غير جيد»، بل «هل كتبت التعليمات بشكل جيد؟».

استخدم كارباتي كلمة دقيقة جداً: مشكلة المهارة (skill issue)، أي أنك غير ماهر.

شخصية الوكيل أهم بكثير مما تتصور

خصص كارباتي وقتاً كبيراً في البودكاست لموضوع يتجاهله الكثير من التقنيين: شخصية الوكيل. قال إن تجربة Claude Code أفضل بشكل واضح من Codex، ليس بسبب فرق القدرة على البرمجة، بل لأن Claude «يشبه زميل فريق».

فهو يتفاعل معك بحماس للمشروع، ويعطيك ردود فعل إيجابية أكثر عندما تقدم أفكاراً جيدة.

أما Codex، كوكيل برمجي، فهو «ممل جداً»، بعد إتمام المهمة يقول ببساطة «حسناً، أنجزت المهمة»، ولا يهتم أبداً بما تبتكره.

الأكثر إثارة للاهتمام هو ملاحظته لآلية مدح Claude. قال إن عندما يعرض فكرة غير ناضجة قليلاً، يكون رد فعل Claude هادئاً: «نعم، يمكننا تنفيذ ذلك».

لكن عندما يعتقد أن الفكرة فعلاً رائعة، يبدو أن Claude يعطي رد فعل إيجابي أقوى. ونتيجة لذلك، يكتشف أنه يحاول «كسب مدح Claude».

«هذا غريب حقاً، لكن الشخصية مهمة جداً»، قال بيتر ستاينبرغ أثناء بناءه لـOpenClaw، حيث أنشأ ملف شخصية جذاب (soul.md) مع نظام ذاكرة أكثر تعقيداً ومنفذ تواصل واحد عبر WhatsApp.

ثلاث جمل تسيطر على منزل كامل، وتم التخلص من ستة تطبيقات

لم يقتصر استخدام كارباتي للوكلاء على كتابة الكود فقط. في يناير، أنشأ وكيل Claude اسمه «دوبى» ليقوم بدور الخادم، وهو اسم من «هاري بوتر» لجنّي المنزل.

قال لـدوبى: «أعتقد أن هناك سماعات Sonos في المنزل، هل يمكنك البحث عنها؟» قام دوبى بمسح الشبكة المحلية، ووجد نظام Sonos، واكتشف أنه غير محمي بكلمة مرور، فدخل إليه، وعمل على عكس هندسة API، ثم سأل: هل تريد أن نجرب تشغيل موسيقى في غرفة المكتب؟

ثلاث كلمات من التعليمات، والموسيقى بدأت تعزف. ثم تم توصيل الإضاءة، والتكييف، والستائر، وحوض السباحة، وحوض الاستحمام بالمياه الساخنة. كما أن هناك كاميرا أمنية عند الباب، استخدم دوبى نموذج رؤية Qwen للكشف عن التغييرات. وكلما توقفت سيارة عند الباب، يرسل النظام رسالة على WhatsApp: «توقفت شاحنة FedEx، ربما لديك طرد». وعندما يقول «دوبى، حان وقت النوم»، تنطفئ جميع الأضواء في المنزل.

لكن كارباتي يرى أن جوهر هذه القصة ليس في المنزل الذكي.

فقد كان يدير هذه الأجهزة باستخدام ستة تطبيقات مختلفة تماماً، والآن تخلص منها جميعاً. يستخدم دوبى اللغة الطبيعية للتحكم في كل شيء، ويحقق تفاعلات بين الأنظمة لا يمكن لأي تطبيق فردي أن يحققها. ومن هنا، استنتج أن تطبيقات المنزل الذكي الموجودة في المتاجر ليست ضرورية أصلاً.

المستقبل يجب أن يكون عبر واجهات برمجة التطبيقات (API) التي تُكشف مباشرة للوكلاء، بحيث يعمل الوكيل كغراء ذكي يربط جميع الأدوات معاً. ليس فقط المنزل الذكي، بل بيانات جهاز المشي، والتقويم، وكل شيء آخر يجب أن يتبع نفس المنطق.

العملاء في الصناعة لن يكونوا البشر، بل الوكلاء الذكيون الذين يمثلون البشر. هذا التحول سيكون ضخماً.

بعد 700 تجربة من Auto Research، رأى شيئاً أكبر

إذا كانت تجربة Dobby هي أقصى اختبار لوكيل الذكاء الاصطناعي في سيناريوهات الحياة، فإن AutoResearch هو اختبار كارباتي لقدرات الذكاء الاصطناعي في البحث العلمي.

في أوائل مارس، أعطى رمز تدريب nanochat الذي قام بتعديله بعناية لوكيل ذكاء اصطناعي، وأعطاه مهمة بسيطة: حاول أن تجعل تدريب النموذج أسرع. مساحة عمل الوكيل كانت ملف بايثون مكون من 630 سطراً، ومقياس التقييم هو عدد البتات لكل بايت على مجموعة التحقق، وكل تجربة كانت تستغرق 5 دقائق ثابتة. بعد الانتهاء، يقيم النتائج، وإذا كانت أفضل، يحتفظ بالتعديلات، وإذا لم تكن كذلك، يرجع إلى الحالة السابقة، ويبدأ التجربة التالية. خلال يومين، أُجريت 700 تجربة. وجد الوكيل 20 تحسيناً فعالاً، منها إعادة ترتيب طبقات QK Norm وRoPE، وهي تعديلات على مستوى الهيكلية. عند تطبيق هذه التحسينات على نماذج أكبر، زادت سرعة التدريب بنسبة 11%. ويجب أن نذكر أن هذا الكود مكتوب يدوياً من قبل كارباتي نفسه، ومُحسن بشكل متكرر.

نتيجة مذهلة: الذكاء الاصطناعي اكتشف تحسينات لم يكتشفها البشر

كيف كانت نتائج هذا النظام؟

قدم كارباتي مثالاً مذهلاً. كأنه باحث قضى عشرين عاماً، ودرّب آلاف النماذج، واعتقد أنه قد ضبطها بشكل جيد.

لكن، بعد أن جعل AutoResearch يعمل طوال الليل، اكتشف أن الذكاء الاصطناعي وجد تحسينات لم يكتشفها هو نفسه! مثل أن معلمات betas في Adam لم تكن مضبوطة بشكل كامل، وأنه نسي إضافة وزن تدهور (weight decay) على تمثيلات القيم، وأن هناك تفاعلات بين هذه المعلمات، بحيث أن تعديل واحد يتطلب تعديل الآخرين.

بمعنى آخر، أن الذكاء الاصطناعي يتجاوز في استكشافه الفضاء الذي يملكه الإنسان! وإذا استمر في ذلك، فسيصبح الأمر أكثر رعباً: جوهر البحث العلمي هو البحث عن الحلول المثلى. يتصور كارباتي أن نظام البحث العلمي المستقبلي قد يكون هكذا: يوجد «مخزن أفكار» (idea queue)، وتقوم مجموعة من الوكلاء بسحب المهام منه باستمرار، ثم يجري الذكاء الاصطناعي تجارب، ويختبر، ويختار النتائج الفعالة، وتدخل إلى «الفرع الرئيسي». خلال هذه العملية، الإنسان فقط يضع «الأفكار» في الطابور.

حلقة كارباتي (Karpathy Loop) تشتعل على الإنترنت

أثار هذا المشروع ضجة على منصة X.

حصل على 8.6 مليون مشاهدة، وذهب Tobias Lütke، المدير التنفيذي لشركة Shopify، ليجربه على بيانات شركته ليلاً، وأجرى 37 تجربة، وحقق زيادة في الأداء بنسبة 19%.

نقل فريق SkyPilot هذا النموذج إلى عنقود من 16 بطاقة GPU، وأجرى 910 تجارب خلال 8 ساعات. واكتشفوا أن التوازي ليس فقط لتسريع العملية، بل غير استراتيجيات البحث لدى الوكيل—مع 16 بطاقة GPU، لم يعد الوكيل يتبع استراتيجية التلّ الصخري (hill climbing) الطموحة، بل يجري عدة تجارب مقارنة في وقت واحد، ويمكنه خلال جولة واحدة أن يلتقط تفاعلات المعلمات. أطلق المحللون على هذه الطريقة اسم: حلقة كارباتي (Karpathy Loop).

لكن، لم يقتصر حديث كارباتي في البودكاست على النتائج الحالية فقط. بل تصور المرحلة التالية من AutoResearch: مجموعة من العمال غير الموثوق بهم تتعاون عبر الإنترنت لتشغيل التجارب. واستشهد بمبادئ SETI@Home وFolding@Home كمثال.

المختبرات الرائدة تمتلك قوة حساب موثوقة، لكن الأرض أكبر بكثير. إذا أتيحت آليات مناسبة للتعامل مع قوة حساب غير موثوقة، فربما تتفوق جيوش الوكلاء عبر الإنترنت على المختبرات الرائدة.

وحتى أنه تصور نوعاً جديداً من «التبرعات»—شراء قوة حساب لمشروع AutoResearch الذي تتابعه. مثلاً، إذا كنت مهتما بعلاج نوع معين من السرطان، يمكنك الانضمام إلى شبكة التجارب الموزعة لذلك المجال.

عالم عبقري، وطفل في العاشرة من عمره

بالرغم من الحديث عن مدى قوته، لم يكن كارباتي ينوي أن تقتصر على سماع الأخبار الجيدة فقط. فهو يصف عيوب النماذج بشكل صريح وقوي.

وأشعر أحياناً أنني أتحدث مع دكتور عبقري، قضى حياته في برمجة الأنظمة، وطفل في العاشرة من عمره. شيء غريب جداً.

يسمي هذا «التموج» (jaggedness)، أي توزيع القدرات غير المتساوي. النموذج يمكن أن يعمل لساعات متواصلة في مساعدتك على إنجاز المهام، ثم فجأة يرتكب خطأ واضحاً، ويقع في حلقة مفرغة. يعتقد كارباتي أن السبب يعود إلى طريقة تدريب التعلم المعزز (reinforcement learning). النموذج يُحسن بشكل غير محدود على المهام التي يمكن التحقق منها. هل يمكن أن يعمل الكود بشكل صحيح، أو يمر الاختبارات الوحدوية، فهذه أمور واضحة وصحيحة وخاطئة. لكن في سيناريوهات تتطلب حكم، وفهم نوايا، وقول «انتظر، لست متأكداً أن هذا هو المطلوب»، فإن إشارات التحسين غير موجودة. على سبيل المثال، عندما تسأل ChatGPT أن يروي نكتة، فإن النكتة التي رواها قبل أربع سنوات لا تزال نفسها حتى اليوم: «لماذا لا يثق العلماء في الذرات؟ لأنها تتكون من كل شيء.»

مر أربع سنوات! لقد تطور النموذج بشكل كبير في مهام الوكيل، لكن لم يتم تحسين قدرته على إلقاء النكات، وما زال عالقاً في مكانه. «أنت لا تتعامل مع ذكاء عام،» يلخص، «إما أن تسير على مسار التدريب الذي تم تدريبه عليه بسرعة الضوء، أو أن تبتعد عن المسار، وتبدأ كل الأشياء في الانجراف.»

الحدود، أصبحت من صنع الإنسان نفسه

عند النظر إلى مسيرة كارباتي خلال الأشهر الستة الماضية، هناك خيط خفي يربط كل شيء. في أكتوبر من العام الماضي، قال إن الوكيل هو مشروع لعشر سنوات، وفي ديسمبر، تعرض لانتقادات وتحول، وفي يناير، جعل Claude يقوم بدور الخادم، وفي مارس، جعل الوكيل يشارك في البحث العلمي. النقطة المشتركة في كل ذلك هي أن الإنسان تراجع خطوة، وأصبح الموجه، وليس المنفذ، وكتابة التعليمات بدلاً من كتابة الكود.

كتب كارباتي على GitHub مقدمة خيالية لبحث AutoResearch:

في السابق، كانت أبحاث الذكاء الاصطناعي المتقدمة تتم بواسطة حواسيب بشرية، كانت تحتاج إلى الأكل، والنوم، وأحياناً تتواصل عبر الموجات الصوتية في مراسم «الاجتماعات الجماعية».

ذلك العصر قد ولى.

وتوقعه لعام 2026 هو كلمة واحدة: «slopacolypse»، وهي تركيب لكلمتي «slop» (فضلات الطعام) و«apocalypse» (نهاية العالم).

سيملأ المحتوى على GitHub وarXiv ووسائل التواصل الاجتماعي بكثير من «تقريباً صحيح، لكنه ليس دقيقاً تماماً». ستتواجد تحسينات حقيقية في الكفاءة، وأداء «عرض الإنتاجية للذكاء الاصطناعي» في آنٍ واحد. قبل خمسة أشهر، قال إن الأمر «غير فعال على الإطلاق»،

وبعد خمسة أشهر، اعترف بأنه أصيب بـ«مرض نفسي بسبب الذكاء الاصطناعي». وربما يكون هذا التحول هو أعمق ملخص لعام 2026.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت