تم تسريب 510,000 سطر من الشيفرة المصدرية لمساعد الترميز التابع لـAnthropic، بما في ذلك العديد من الميزات غير المنشورة

robot
إنشاء الملخص قيد التقدم

فاجأت شركة Anthropic، القائدة الواعدة في مجال الذكاء الاصطناعي، الجميع عبر “انفتاح” كودها؛ إذ أُتيحت على غير المعتاد، رموز مساعد البرمجة الخاص بها Claude Code مفتوحة المصدر، والتي تضم 510 آلاف سطر من الكود.

في تمام 31 مارس حسب التوقيت المحلي، وبسبب خطأ أثناء تغليف npm (مدير الحزم)، تسرب جزء من الشفرة المصدرية لأداة برمجة الذكاء الاصطناعي الرائجة التابعة لـ Anthropic Claude Code، بما يقارب 512 ألف سطر، ويشمل 4756 ملف مصدرًا، وأكثر من 40 وحدة أدوات، إضافة إلى عدة ميزات لم تُعلن بعد، ما اضطر الشركة إلى “فتح” الكود أمام المطورين حول العالم. ورغم أن الشركة استجابت بسرعة، إلا أن المطورين شاركوا هذه الأكواد بكميات كبيرة بالفعل على مجتمعات مثل GitHub.

وبخصوص ذلك، ردت Anthropic قائلة: “لم يتضمن هذا الحادث أو يكشف أي بيانات عملاء حساسة أو بيانات اعتماد. يعود ذلك إلى مشكلة في النشر ناجمة عن خطأ بشري في عملية التغليف، وليس إلى ثغرة أمنية. نحن نتخذ إجراءات لمنع تكرار حالات مماثلة.”

تشير المواد المتاحة علنًا إلى أن Anthropic تأسست في عام 2021 على يد موظفين سابقين في OpenAI، ومنتجاتها تشمل نماذج كبيرة ضمن سلسلة Claude. ومنذ تأسيسها، حصلت الشركة تباعًا على استثمارات من شركات التكنولوجيا الكبرى مثل Amazon وGoogle وNvidia وSalesforce.

بالنسبة لشركة ناشئة مثل Anthropic تؤكد على “الأمان” وتعمل بنشاط على السعي إلى الطرح للاكتتاب العام (IPO)، فإن تسرب الشفرة المصدرية يعد ضربة كبيرة لا محالة؛ إذ يمكن لمنافسي الشركة ومطوري البرمجيات فهم عملية تطوير منتجاتها بشكل أعمق، كما قد يثير تساؤلات لدى المستخدمين والمستثمرين بشأن سلامة بيانات Anthropic.

يشير تحليل من وسائل إعلام أجنبية إلى أن المعلومات التي انكشفت عبر هذا التسرب تكشف كيف تعاملت Anthropic مع إحدى المشكلات الأساسية التي تواجه أدوات الذكاء الاصطناعي: كيف يحافظ النموذج على الدقة عند التعامل مع مهام طويلة أو معقدة. ومن المثير للانتباه أن Claude Code لا يعتمد مباشرة على المحتوى الذي تم توليده سابقًا؛ بل يقوم باستمرار بالشك في نتائجه والتحقق منها لتجنب مشكلة “الهلاوس”.

بالإضافة إلى ذلك، حتى بدون تفاعل من المستخدمين، سيستمر Claude Code في العمل في الخلفية، وإعادة تنظيم المعلومات التي تعلمها، وبناء روابط بين محتويات مختلفة، وتصحيح التناقضات بين ما يحدث في البداية وما يحدث لاحقًا، والتخلي عن الافتراضات الخاطئة. وعندما يعود المستخدم، يصبح لدى Claude Code فهم أوضح وأكثر دقة للمهمة.

يُظهر هذا التسرب أيضًا أن Anthropic كانت قد حاولت إشراك الذكاء الاصطناعي في تطوير مشاريع مفتوحة المصدر، لكنها لم تُشر بشكل واضح في مساهماتها إلى المحتوى المُولّد بالذكاء الاصطناعي. وفي الوقت نفسه، تدرس الشركة كيفية جعل أدوات الذكاء الاصطناعي لديها أكثر “إدمانًا”، وأكثر صعوبة في التخلي عنها. تفكر Anthropic في إطلاق مساعد عملية حراسة مستقلة يحمل اسمًا رمزيًا “Kairos”، كما أن لديها “Buddy System (نظام الشريك)” المدمج مع نظام حيوانات إلكترونية كامل.

ومن الجدير بالذكر أن هذه ليست المرة الأولى التي تقع فيها Anthropic في تسرب خلال أقل من أسبوع؛ إذ حدثت المشكلة للمرة الثانية. في 26 مارس، لاحظ أحد المطورين أن وصف نموذج الذكاء الاصطناعي الذي كانت Anthropic على وشك إطلاقه وبعض الوثائق ذات الصلة ظهرت في ذاكرة تخزين مؤقتة عامة للبيانات.

في فبراير من هذا العام، أنهت Anthropic جولة تمويل بقيمة 300 مليار دولار بقيادة شركة الاستثمار التقني MGX من الإمارات، لتصل قيمة الشركة إلى 3800 مليار دولار. وفي 27 مارس، أفادت وسائل إعلام أجنبية بأن Anthropic تناقش خطة الطرح للاكتتاب العام (IPO)، على أن يتم إدراجها في الولايات المتحدة في أسرع وقت خلال شهر أكتوبر من هذا العام.

(المصدر: صحيفة The Paper)

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:0
    0.00%
  • القيمة السوقية:$2.26Kعدد الحائزين:1
    0.00%
  • تثبيت