DeepSeek低调推出R1论文V2版本,披露了几项关键技术进展。



فيما يتعلق بمسألة صحة المحتوى الذي تنتجه النماذج الكبيرة، قدموا تفسيرًا رسميًا. فيما يخص الظاهرة التي تظهر عندما تذكر النماذج بشكل متكرر OpenAI وChatGPT أثناء الإجابة، أوضح DeepSeek أن ذلك ليس تصميمًا متعمدًا، بل ناتج عن الحالة الموضوعية لبيانات التدريب — حيث يوجد بكثرة محتوى خارجي منشأ من مصادر خارجية في مجموعة بيانات الويب، والذي عند دمجه في تدريب النموذج الأساسي، أثر بشكل غير مباشر ولكن يمكن قياسه. هذا الاكتشاف ذو أهمية كبيرة لفهم خصائص سلوك LLM واعتماده على البيانات.

الأكثر إثارة للاهتمام هو خططهم للمستقبل فيما يخص القدرات. حددت الورقة بوضوح أن «الإخراج المنظم» و«استخدام الأدوات» هما الاتجاهان الرئيسيان لتطوير R2. الإخراج المنظم يمكن النموذج من تنظيم المعلومات وفق تنسيق معين، مما يعزز قابليته للاستخدام في التطبيقات العملية؛ أما استخدام الأدوات فيتعلق بقدرة النموذج على التفاعل مع أنظمة خارجية، وهو أمر حاسم لتوسيع حدود تطبيقات نماذج الاستدلال. تعكس هذه الاتجاهات التكنولوجية تحولًا من توليد النصوص البحتة إلى نماذج متعددة الوسائط وتفاعلية بشكل قوي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 8
  • إعادة النشر
  • مشاركة
تعليق
0/400
SignatureLiquidatorvip
· 01-10 17:22
ها، DeepSeek مرة أخرى تتصرف بشكل هادئ، لا أحد يعلم متى ستصدر نسخة جديدة انتظر، هل لا زالوا يلقون اللوم على بيانات التدريب؟ يتحدثون عن الوضع الحالي بشكل موضوعي... حسنًا، هذا السبب فعلاً مقنع يبدو أن الإخراج المنظم واستخدام الأدوات جيد، لكني أخشى أن يكون مجرد تقدم نظري على الورق
شاهد النسخة الأصليةرد0
SatsStackingvip
· 01-10 09:19
حسناً... إلقاء اللوم على تلوث البيانات بطريقة مباشرة جداً، لكن هذه الحجة قوية فعلاً الإخراج المنظم + استدعاء الأدوات، هذا ما يريده جميع اللاعبين حقاً، الدردشة النقية لا تملك قوة تنافسية كثيراً يبدو أن تحديث DeepSeek هذه المرة مستقر جداً، بدون تلك النبرة المبالغ فيها موضوع بيانات التدريب بصراحة، لا أحد يستطيع تجنبه، من الأفضل أن تكون صريحاً بدلاً من إخفاء الأمور إذا كان R2 قادراً حقاً على صقل قدرات الأدوات، قد يكون ذلك اللحظة التي تستحق الانتباه فعلاً مشكلة جودة مجموعات البيانات تؤرق الصناعة بأكملها فعلاً، جرأة DeepSeek على التحدث مباشرة تعتبر نوع من الصدق يبدو أن هذا التحديث بدون مفاجآت كبيرة، لكن على الأقل منطقي ومتسق، بدون خداع
شاهد النسخة الأصليةرد0
LightningWalletvip
· 01-09 12:25
ها، تحديث DeepSeek هذا فيه شيء، الإخراج المهيكل وتكامل الأدوات، يبدو أنهم حقًا يخبئون عرضًا كبيرًا تأثير بيانات التدريب على سلوك النموذج صحيح، تلك الكومة من المحتوى الذي تولده الذكاء الاصطناعي على الإنترنت فعلاً يمكن أن يتلوث R2 على الأبواب، تعدد الأوضاع هو المستقبل حقًا المهم هو هل سيكون فعلاً مفيدًا، لا يكون مجرد بريق على الورق
شاهد النسخة الأصليةرد0
SchrodingerWalletvip
· 01-08 07:45
DeepSeek مرة أخرى هادئ ومتطور، أنت رائع حقاً، ألا يمكنك إصدار بيان لنعرف؟ بيانات التدريب مليئة بظلال ChatGPT... حسناً، كل ما تقوله يبدو وكأنه تكرار للمنافس المخرجات المهيكلة + استخدام الأدوات، يبدو أنك تضع الأساس للجيل التالي من الاستخدام العملي، هل R2 قادم حقاً؟ تلويث البيانات هذا، الدائرة كلها لا تستطيع تجنبه، أن تجرؤ DeepSeek على قوله يظهر الصدق بالفعل 野心 R2 ليست صغيرة، الانتقال المباشر من توليد النصوص إلى التفاعل متعدد الأنماط، متسارع قليلاً لكنني أحبه خريطة المسار التكنولوجي هذه كشفت بوضوح، إنها تشير ببساطة إلى أين السقف الخاص بك استخدام الأدوات هذا حقاً هو المفتاح، بدون هذا فإن LLM مهما كان قوياً فهو مجرد مزهرية جاءت ورقة V2 بعد وقت طويل جداً قبل أن يناقشها أحد، الشهرة ليست كما هو متوقع
شاهد النسخة الأصليةرد0
MemeTokenGeniusvip
· 01-08 07:41
هاها ديبسيك يعمل حيله أخرى مرة أخرى، مخرجات منظمة واستخدام الأدوات بهذا الشكل رائعة فعلاً تتبع بيانات التدريب كاملة لـ ChatGPT مضحك جداً، في الأساس إنها مسألة DNA الإنترنت هل R2 ستقفز مباشرة؟ أنا متحمس شوي
شاهد النسخة الأصليةرد0
GasGuzzlervip
· 01-08 07:41
تسمم البيانات هو أمر لا يمكن تجاهله حقًا، فمن الصعب القول إنه لا يؤثر على النموذج إذا كانت مجموعة التدريب مليئة بآثار ChatGPT لكن التركيز على الإخراج المهيكل + استدعاء الأدوات هو المفتاح، وأشعر أن هذا هو الاختراق الحقيقي للتطبيق العملي DeepSeek مرة أخرى يقوم بهذه التقنية بشكل سري وخفي، بشكل متواضع جدًا... وبعد الانتهاء يعلن عن الورقة البحثية إذا تم تحسين قدرات الأدوات بشكل حقيقي، فسيكون ذلك هو التهديد الحقيقي لنظام OpenAI البيئي
شاهد النسخة الأصليةرد0
ForkPrincevip
· 01-08 07:29
嗯...بيانات التلوث أخيرًا هناك من يجرؤ على الحديث عنها بشكل جيد، ليست خطأ برمجي بل ميزة هاها الإخراج المنسق واستدعاء الأدوات هذان الاتجاهان موثوقان، إذا تمكن R2 من إنجازه حقًا فسيكون مذهلاً DeepSeek هذا الأسلوب الهادئ حقًا، كل مرة يضع ورقة بحثية بشكل هادئ، أكثر بكثير من بعض الذين يصرخون يوميًا بيانات التدريب كلها من ChatGPT، لا عجب أن النموذج يذكرهم دائمًا، كيف يمكن تنظيفها لن يغير الأمر عندما تتطور قدرات استخدام الأدوات، فإن نماذج الاستنتاج ستكون لها مكانة حقيقية، لقد سئمت من الدردشة فقط
شاهد النسخة الأصليةرد0
wrekt_but_learningvip
· 01-08 07:21
البيانات تحدد كل شيء، لا عجب أنني أذكر دائمًا OpenAI... إذن DeepSeek يلمح إلى وجود مشكلة في مجموعة التدريب؟ --- الإخراج المنظم + استدعاء الأدوات، هذه هي المفتاح لفتح باب التطبيق العملي، عصر توليد النصوص البحتة على وشك الانتهاء --- انتظر، هم يقولون "تأثير غير مباشر ولكن قابل للقياس"... أليس هذا اعترافًا ضمنيًا بأن النموذج قد يتأثر ببيانات التدريب؟ --- خارطة الطريق R2 مثيرة للاهتمام، يبدو أن DeepSeek يسير في طريقه الخاص، لا يتبع التيار في التفكير الصافي --- كل محتوى التدريب عبارة عن محتوى خارجي، كيف يضمن هذا الاستقلالية...
شاهد النسخة الأصليةرد0
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.68Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.9Kعدد الحائزين:2
    0.58%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت