العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
مذبحة في الذاكرة: ورقة بحثية لـ Google AI بقيمة 90 مليار دولار، تتهم بالتزوير الأكاديمي
(المصدر:Machine Heart Pro)
التحرير|تسِه نان، يانغ ون
لم أتوقع أن تؤدي هذه الموجة الواسعة من اهتزازات السوق إلى “قنبلة أكاديمية” كذلك.
في مساء يوم الجمعة من هذا الأسبوع، أصبحت قضية سوء السلوك الأكاديمي في الأبحاث التابعة لشركة Google محور اهتمام “مجتمع الذكاء الاصطناعي”.
فقد نشر ما بعد الدكتوراه غاو جيان يانغ من المعهد الفدرالي للتكنولوجيا في زيورخ (ETH Zurich) مقالًا على Zhihu، ذكر فيه أن الورقة البحثية الخاصة بـ Google Research بعنوان 「TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate」 تحتوي على مشكلات خطيرة في وصف خوارزمية ترميز المتجهات RaBitQ الموجودة بالفعل، وفي المقارنة بين النتائج النظرية، وفي المقارنة بين التجارب، وأن هذه المشكلات تم الإشارة إليها بوضوح قبل تقديم الورقة للنشر، ومع ذلك تجاهلها المؤلفون عمدًا.
وبصفته بحثًا في مجال الذكاء الاصطناعي قادرًا على “إسقاط” منطق شركات كثيرة ضمن “الخط الرئيسي”، يبدو أن مستوى القيمة لـ TurboQuant في الصناعة لا يثير شكوكًا. ومع ذلك، من كان يتوقع أن هذه الورقة الرئيسية في ICLR، التي قامت Google بدفعها إلى منصة “المقدس”، وتحظى بتعرض بمستوى ملايين، تكمن قاعدتها التقنية الأكثر جوهرية في غموض اتهامات “انتحال”.
TurboQuant الذي أثار اهتزازات أسهم الذاكرة
أصبحت ورقة TurboQuant الخاصة بـ Google مؤخرًا ساخنة في مجال أبحاث الذكاء الاصطناعي. فهذه الورقة، التي تم قبولها في ICLR 2026 كأهم مؤتمر، تقدم خوارزمية ضغط تدعي أنها تستطيع تقليل استهلاك ذاكرة KV ل نماذج اللغات الكبيرة بمقدار لا يقل عن 6 مرات، وزيادة السرعة حتى 8 مرات، مع عدم خسارة الدقة
تم نشر TurboQuant في أبريل 2025 على منصة الأوراق قبل الطباعة arXiv، واستُقبلت في ICLR 2026 في يناير 2026، ثم أثارت اهتمامًا هائلًا في 24 مارس عبر عرض مدونة أبحاث Google.
وصلت مشاهدات منشور Google على X إلى أكثر من عشرة ملايين.
في الاستدلال باستخدام نماذج الذكاء الاصطناعي الكبيرة، في كل مرة يولّد فيها نموذج الذكاء الاصطناعي كلمة جديدة، يحتاج إلى “الرجوع” إلى سجل المحادثة (السياق). يتم تخزين هذا الجزء في ذاكرة KV. لذلك غالبًا ما تصبح ذاكرة KV هي أكبر عنق زجاجة يقيّد سرعة وتكلفة نماذج اللغات الكبيرة. وتبدو نتيجة طريقة الضغط دون خسارة القصوى التي اقترحتها TurboQuant مبهرة: إذ إنها قادرة على خفض موارد العتاد اللازمة لتشغيل نموذج اللغة الكبير بشكل كبير، وهو ما يضرب مباشرة توقعات السوق بنمو انفجاري في شرائح الذاكرة.
في يوم نشر مدونة Google، شهدت أسهم الذاكرة الأمريكية هبوطًا جماعيًا. ففي حين تراجعت SanDisk بنسبة 6.5% مؤقتًا، انخفضت Seagate Technology بأكثر من 5%، وتراجعت Western Digital بأكثر من 4%، وانخفضت Micron Technology بنسبة 4%. وتجاوز إجمالي القيمة السوقية التي تبخرت في يوم واحد 900 مليار دولار
فكيف حققت هذه التقنية التي روجت لها Google على نطاق واسع ذلك؟ ببساطة، فإنها تستخدم مجموعة من الطرق الدقيقة لحل عقدة “استهلاك الذاكرة”.
حقق TurboQuant هذا الهدف عبر ضغط على مرحلتين: في المرحلة الأولى، يستخدم “الدوران العشوائي” وميكانيزم PolarQuant لإسقاط المتجهات عالية الأبعاد إلى إحداثيات قطبية، لتحقيق ضغط أقصى؛ وفي المرحلة الثانية، يستخدم تحويل Quantized Johnson-Lindenstrauss (QJL)، مستفيدًا من مساحة تبلغ 1 bit فقط لتصحيح انحراف حساب الضرب الداخلي.
ومع ذلك، كانت هذه الأجزاء التقنية بالذات هي التي أصبحت شرارة تفجّر فضيحة أكاديمية.
ذكر الدكتور غاو جيان يانغ من ETH Zurich أدلةً قائلًا إن الآلية الأساسية “الثورية” التي روجت لها Google ليست من ابتكار Google، بل تم اقتراحها بالكامل من قبل فريقه قبل عامين.
والأكثر إغضابًا هو أن Google في ورقتها قامت عمدًا بـ “تجنّب” و“تخفيف” التقنيات الرائدة السابقة.
طعن مؤلف RaBitQ علنًا:
إن الطريقة الأساسية لـ TurboQuant موجودة من قبل بعامين
تم نشر سلسلة أوراق RaBitQ في 2024، واقترحت طريقة لقياس/ترميز المتجهات عالية الأبعاد، وقد أثبتت نظريًا أنها تحقق حد خطأ تقاربي أمثل ضمن مؤتمرات الحوسبة النظرية من الفئة الأعلى.
تم نشر RaBitQ والإصدار الموسع في SIGMOD 2024 وSIGMOD 2025 على التوالي.
ومن بين الأفكار الأساسية لـ RaBitQ، تطبيق دوران عشوائي (random rotation / Johnson-Lindenstrauss transform) على المتجه الإدخالي قبل عملية التكميم/القياس، والاستفادة من خصائص توزيع الإحداثيات بعد الدوران لتنفيذ تكميم المتجهات، وذلك لتحقيق حد خطأ أمثل من الناحية النظرية.
أما في TurboQuant، فإن الفكرة الأساسية نفسها أيضًا تتمثل في تطبيق دوران عشوائي على المتجهات قبل عملية التكميم/القياس (Johnson-Lindenstrauss transform). وهذه النقطة، حتى المؤلفون أنفسهم لـ TurboQuant وصفوها صراحة في ردهم الخاص على مراجعات ICLR.
لكن ورقة TurboQuant تجنبت طوال الوقت إقامة علاقة مباشرة على مستوى المنهج مع RaBitQ، بل وصفت RaBitQ في جسم النص على أنه grid-based PQ، وفي وصفها تجاهلت خطوة random rotation الأساسية في RaBitQ، وذلك بهدف تَغيم العلاقة التطورية بين الاثنين عمدًا.
المؤلف المشارك الثاني لـ TurboQuant، Majid Daliri، كان قد تواصل مبكرًا في يناير 2025 مع غاو جيان يانغ بشكل استباقي، وطلب المساعدة في تصحيح/ضبط كود RaBitQ الذي قام هو بترجمته وإعادة إنتاجه بنفسه باستخدام Python. وهذا يوضح أن فريق TurboQuant كان على دراية شديدة بالتفاصيل التقنية لـ RaBitQ.
إذا كان الأمر معروفًا مسبقًا وتمت استشارة المؤلف الأصلي، فلماذا لا يتم إجراء اقتباس مناسب ومقارنة موضوعية في الورقة النهائية؟
بعد اكتشاف هذه المشكلات، تعامل فريق غاو جيان يانغ معها بمنهج علمي صارم: منذ مايو 2025 أجروا عدة تواصلات خاصة عبر البريد الإلكتروني مع فريق TurboQuant، وذكروا بوضوح الأخطاء الواقعية القائمة.
ومع ذلك، رفض فريق TurboQuant إجراء أي تصحيح قائلًا: “لقد أصبح random rotation تقنية معيارية في المجال، ولا يمكننا الاستشهاد بكل ورقة تستخدم هذه الطريقة”. وبعد ذلك، لم يتم فقط دفع هذه الورقة إلى ICLR 2026، بل أصبحت أيضًا محور اهتمام عالمي.
إذا لم يتم تصحيح مثل هذه السردية الأكاديمية، فسوف تتحول تدريجيًا إلى إجماع. وفي النهاية، قام فريق غاو جيان يانغ بتقديم عدة اتهامات.
ثلاثة اتهامات محددة
ذكر غاو جيان يانغ في المقال ثلاث مشكلات محددة.
الأول: تجنّب منهجي لتشابه التقنيات.
لم يفشل TurboQuant فقط في مناقشة الترابط البنيوي بين طريقتيهما بشكل مباشر، بل نقل كذلك الوصف غير المكتمل لـ RaBitQ الموجود أصلًا في جسم النص إلى الملحق. وقد حدث ذلك حتى بعد أن أشارت هيئة المراجعين بشكل واضح إلى أن “RaBitQ and variants are similar to TurboQuant in that they all use random projection”، وطلبت من الورقة مناقشة كاملة.
رد مؤلفو TurboQuant بأن “استخدام random rotation وتحويل Johnson-Lindenstrauss أصبح تقنية معيارية في هذا المجال، ولا يمكننا الاستشهاد بكل ورقة تستخدم هذه الطرق”.
اعتبر فريق غاو جيان يانغ أن هذا الرد يقوم بتحويل التناقض: بوصفه العمل الرائد المحدد الذي سبق في الجمع بين random rotation (تحويل Johnson-Lindenstrauss) وترميز المتجهات تحت نفس إعداد المشكلة، وأنشأ ضمانات نظرية مثلى، يجب أن يتم وصف RaBitQ بدقة في النص، وينبغي مناقشة ارتباطه بـ TurboQuant بشكل كافٍ.
الثاني: توصيف خاطئ لنتائج RaBitQ النظرية.
صنّفت ورقة TurboQuant ضمانات RaBitQ النوعية على أنها “دون المثالية (suboptimal)”، ونسبت ذلك إلى “تحليل أكثر تساهلًا (loose analysis)”، دون تقديم أي اشتقاق أو مقارنة أو أدلة.
والواقع هو أنه في Theorem 3.2 من ورقة RaBitQ الموسعة (arXiv:2409.09913)، تم البرهنة بدقة على أن حد خطأ RaBitQ يصل إلى حد خطأ تقاربي أمثل كما ورد في ورقة مؤتمرٍ من الطراز الأعلى في الحوسبة النظرية (Alon-Klartag, FOCS 2017). وبسبب هذه النتيجة، دُعي فريق غاو جيان يانغ لتقديم عرض في ورشة عمل تابعة لـ FOCS، وهو مؤتمر رفيع المستوى في علوم الحوسبة النظرية.
في مايو 2025، أجرى فريق غاو جيان يانغ مع المؤلف المشارك الثاني في TurboQuant، Majid Daliri، عدة جولات من مناقشات تقنية مفصلة عبر البريد الإلكتروني، وقاموا بتوضيح هذا التفسير الخاطئ بالتفصيل نقطة بنقطة. كما أكد Majid Daliri أنه قد أخطر جميع المؤلفين المشاركين بذلك. ومع ذلك، ظل هذا التصنيف الخاطئ دون تصحيح طوال عملية المراجعة الكاملة، وحتى بعد القبول، وحتى أثناء الحملة الترويجية واسعة النطاق.
الثالث: خلق شروط تجريبية غير عادلة عمدًا.
عند اختبار سرعة TurboQuant مقابل RaBitQ، لم تستخدم الورقة تطبيقًا C++ مفتوح المصدر رسميًا، بل استخدمت إصدار Python الذي ترجمه Majid Daliri بنفسه. كما تم تشغيل RaBitQ على نواة CPU واحدة مع تعطيل تعدد الخيوط، بينما اختبرت TurboQuant نفسها باستخدام GPU من نوع NVIDIA A100. ولم يتم الإفصاح عن أي من هذين الشرطين غير العادلين على مستوى النظام بشكل واضح في الورقة.
اعترف Majid Daliri بنفسه في رسالة بريد إلكتروني في مايو 2025 بوجود هذا القيد على نواة واحدة. ومع ذلك، ما زالت الورقة تقدم للقراء استنتاج “أن RaBitQ أبطأ بعدة مراتب من حيث الحجم من TurboQuant” الناتج عن ذلك، دون أي شرح مرفق.
اختيار الإعلان على الملأ
ذكر غاو جيان يانغ أنهم في نوفمبر 2025 اكتشفوا أن TurboQuant قدمت إلى ICLR 2026، فاتصلوا فورًا برؤساء لجنة برنامج ICLR، لكن دون تلقي أي رد.
بعد قبول الورقة رسميًا في يناير 2026، بدأت Google بالترويج لها على نطاق واسع عبر القنوات الرسمية، وسرعان ما وصلت مشاهدات المحتوى على منصات التواصل الاجتماعي إلى عشرات الملايين.
في مارس 2026، وجه فريق غاو جيان يانغ مجددًا خطابًا رسميًا إلى جميع مؤلفي TurboQuant، مطالبًا بالشرح والتصحيح. والردود التي تم تلقيها حتى الآن جاءت من المؤلف الأول Amir Zandieh، حيث تعهد بإجراء تصحيح للمشكلة الثانية والثالثة بعد انتهاء اجتماع ICLR رسميًا، لكنه رفض إجراء أي مناقشة بشأن مشكلة التشابه التقني.
قام غاو جيان يانغ بنشر تعليق علني على منصة ICLR OpenReview، كما قدم شكوى رسمية تحتوي على أدلة كاملة إلى ICLR General Chairs وPC Chairs وCode and Ethics Chairs، وأشار كذلك إلى أنه سيقوم بنشر تقرير تقني تفصيلي حول TurboQuant وRaBitQ على arXiv، مع الإبقاء لنفسه بخيار مواصلة الإبلاغ إلى مؤسسات معنية.
وكتب في نهاية مقاله: “عندما تدفع Google ورقةً ما إلى الجمهور عبر عشرات الملايين من مرات الظهور، فإنه في هذا الحجم لا يحتاج السرد الخاطئ في الورقة إلى الانتشار بشكل نشط؛ يكفي ألا يتم تصحيحه، وسيتحوّل تلقائيًا إلى إجماع.
حاليًا، حظيت ادعاءات غاو جيان يانغ وآخرين بدعم من الكثيرين.
قال كثيرون إن هذه الطريقة من Google في أبحاث الذكاء الاصطناعي ليست المرة الأولى.
وربما تحتاج Google و/أو الجهة الرسمية لـ ICLR إلى تقديم توضيح.
المحتوى المرجعي:
معلومات هائلة، وتفسير دقيق—كل ذلك متاح في تطبيق Sina Finance APP