تم تدمير أسهم التخزين التي تبلغ قيمتها 90 مليار دولار في شركة جوجل للذكاء الاصطناعي بعد اتهامات بالتلاعب في التجارب

الكاتب الأصلي: شينتسيو TechFlow

نشرَت شركة Google ورقة تُزعم «ضغط استخدام الذاكرة الخاص بالذكاء الاصطناعي إلى 1/6»، وقد أطلقت قبل أسبوع موجة هبوط هزّت أسهم شركات شرائح التخزين عالميًا مثل Micron وSanDisk، ما أدى إلى تبخر ما يزيد على 90 مليار دولار من القيمة السوقية.

ومع ذلك، بعد يومين فقط من نشر الورقة، نشر المفترض الذي «يتفوق عليه بخطوات» خطابًا مفتوحًا من عشرات الآلاف من الكلمات من شخصٍ كان يختبر الخوارزمية: وهو جيان يانغ قاو، زميل ما بعد الدكتوراه في المعهد الفيدرالي السويسري للتكنولوجيا، وقد اتهم فريق Google بأنه في التجارب استخدم سكربت Python على CPU أحادي النواة لاختبار الخصم، بينما استخدم A100 GPU لاختبار نفسه، وبعد أن تم إخطاره بالمشكلة قبل تقديم الورقة رفض تعديلها. تجاوزت قراءات الخطاب على Zhihu بسرعة 4 ملايين، وقام الحساب الرسمي الخاص بـ Stanford NLP بإعادة نشره، فاهتزّت الأوساط الأكاديمية والسوق في الوقت نفسه.

إن جوهر هذه الجدل لا يبدو معقدًا: هل يمكن لورقة مؤتمر للتعلم العميق يتم الترويج لها رسميًا على نطاق واسع من Google—وما إن تُنشر حتى تُشعل هلعًا بيعًا عشوائيًا في قطاع الشرائح عالميًا—أن تكون قد شوهت بشكل منهجي عملًا رائدًا منشورًا مسبقًا، وأن تُنشئ عبر تجارب غير عادلة مُتعمدة سردًا مزيفًا عن التفوق في الأداء؟

ماذا فعل TurboQuant: ضغط «ورق مسودة» الذكاء الاصطناعي إلى سدس ما كان عليه

عند توليد ردود بواسطة نماذج اللغات الكبيرة، يحتاج النظام إلى الكتابة أولًا ثم الرجوع للخلف لقراءة المحتوى الذي سبق حسابه. تُخزَّن هذه النتائج الوسيطة مؤقتًا في ذاكرة الوصول العشوائي للفيديو (VRAM)، ويطلق عليها في الصناعة اسم «KV Cache» (ذاكرة التخزين المؤقت للمفتاح والقيمة). كلما طال الحوار، أصبحت هذه «ورقة المسودة» أكثر سماكة، ما يؤدي إلى استهلاك أكبر للذاكرة وتكلفة أعلى.

تتمثل الخلاصة التسويقية الأساسية لخوارزمية TurboQuant التي طوّرها فريق أبحاث Google في ضغط هذه الورقة المسودة إلى 1/6 من حجمها الأصلي، مع الادعاء بأن دقة الاستخدام لا تفقد شيئًا، وأن سرعة الاستدلال قد تتحسن حتى 8 مرات. نُشرت الورقة لأول مرة في أبريل 2025 على منصة ما قبل النشر الأكاديمي arXiv، وفي يناير 2026 تم قبولها في مؤتمر ICLR 2026 في مجال الذكاء الاصطناعي، وفي 24 مارس أعادت Google تعبئتها وترويجها عبر مدونة رسمية.

على مستوى التقنية، يمكن فهم فكرة TurboQuant ببساطة كالتالي: أولًا، يتم «غسل» البيانات المتناثرة وتحويلها إلى صيغة موحّدة باستخدام تحويل رياضي؛ ثم يتم ضغط كل جزء على حدة عبر جدول ضغط أمثل محضّر مسبقًا؛ وأخيرًا يتم استخدام آلية تصحيح أخطاء تبلغ 1 بت لتصحيح الانحرافات الحسابية الناتجة عن الضغط. أثبت تنفيذ مستقل من المجتمع أن تأثير الضغط مطابق تقريبًا للواقع، وأن المساهمة الرياضية على مستوى الخوارزمية موجودة فعليًا.

لا يكمن الخلاف في ما إذا كان بإمكان TurboQuant العمل، بل في ماذا فعلت Google لكي تُثبت أنه «يفوق المنافسين» إلى هذا الحد.

خطاب قاو جيان يانغ المفتوح: ثلاث تهم، كل واحدة تصيب في الصميم

في تمام الساعة 10 مساءً من يوم 27 مارس، نشر قاو جيان يانغ على Zhihu مقالًا طويلًا، وفي الوقت نفسه قدّم تعليقات رسمية إلى منصة مراجعة ICLR الرسمية OpenReview. قاو جيان يانغ هو المؤلف الأول لخوارزمية RaBitQ؛ وقد نُشرت هذه الخوارزمية في عام 2024 في مؤتمر قمة في مجال قواعد البيانات SIGMOD، وهي تحل نوعًا من المشكلات نفسها—أي الضغط الفعّال للمتجهات عالية الأبعاد.

تنقسم اتهاماته إلى ثلاث نقاط، ولكل نقطة سجلات بريد وجداول زمنية تدعمها.

اتهام 1: استخدم طريقة جوهرية للآخرين، ولم يذكرها في النص كاملًا.

توجد خطوة جوهرية مشتركة بين قلب TurboQuant وRaBitQ: قبل ضغط البيانات، يتم أولًا إجراء «دوران عشوائي» للبيانات. تتمثل وظيفة هذه الخطوة في تحويل البيانات غير المنتظمة بطبيعتها إلى توزيع متوقع ومتجانس، وبالتالي تقليل صعوبة الضغط بشكل كبير. وهذه هي أكثر الأجزاء جوهرية—والمتطابقة—بين الخوارزميتين.

اعترف مؤلفو TurboQuant بهذه النقطة أيضًا في ردودهم على التحكيم، لكنهم لم يوضحوا هذه الطريقة على نحو مباشر أبدًا في نص الورقة كاملًا. والأكثر أهمية هو ما يلي: في يناير 2025، قام المؤلف الثاني في TurboQuant Majid Daliri بالتواصل主动 مع فريق قاو جيان يانغ وطلب المساعدة في تصحيح الأخطاء في نسخة Python التي أعادوا كتابتها اعتمادًا على كود RaBitQ. في البريد الإلكتروني، وُصف بالتفصيل مسار إعادة الإنتاج ورسائل الخطأ—أي أن فريق TurboQuant كان ملمًا جدًا بالتفاصيل التقنية لـ RaBitQ.

كما أشار أحد المحكّمين المجهولين في ICLR بشكل مستقل إلى أن الخوارزميتين تستخدمان تقنية متشابهة، طالبًا من فريق TurboQuant مناقشتها بشكل كافٍ. لكن في النسخة النهائية من الورقة، لم يقم فريق TurboQuant بإضافة مناقشة، بل نقل ما كان في النص الرئيسي من وصف لـ RaBitQ (وهو وصف غير مكتمل أصلًا) إلى الملحق.

اتهام 2: ادعاء أن نظرية الطرف الآخر «أقل أمثلية» دون أي سند.

وضعت ورقة TurboQuant بشكل مباشر تسمية «أقل أمثلية» (suboptimal) على RaBitQ، مبررة ذلك بأن التحليل الرياضي لـ RaBitQ «غير محكم نسبيًا». غير أن قاو جيان يانغ يشير إلى أن نسخة الورقة الموسعة لـ RaBitQ قد أثبتت بالفعل بشكل صارم أن أخطاء الضغط تصل إلى الحد الأمثل رياضيًا—وهذا الاستنتاج نُشر في مؤتمر قمة في علوم الحاسوب النظرية.

في مايو 2025، كان فريق قاو جيان يانغ قد شرح الأمثلية النظرية لـ RaBitQ بالتفصيل عبر عدة جولات من رسائل البريد. وأكد المؤلف الثاني في TurboQuant Daliri أنه قد تم إخطار جميع المؤلفين بذلك. ومع ذلك، احتفظت الورقة في النهاية بعبارة «أقل أمثلية» دون تقديم أي حجة دحض.

اتهام 3: في تجارب المقارنة «تقييد اليد اليسرى، وإمساك السيف باليد اليمنى».

هذه هي أكثر نقطة حاسمة وقاتلة في كامل النص. يشير قاو جيان يانغ إلى أن ورقة TurboQuant في تجربة مقارنة السرعة قد تراكمت فيها طبقتان من الشروط غير العادلة:

أولًا، وفّرت RaBitQ الرسمية كود C++ مُحسّن (يدعم الافتراضيًا تشغيلًا متعدد الخيوط بالتوازي)، لكن فريق TurboQuant لم يستخدمه، بل استخدم نسخة Python التي قاموا بترجمتها لاختبار RaBitQ. ثانيًا، عند اختبار RaBitQ، كان يتم استخدام CPU أحادي النواة مع إيقاف تشغيل تعدد الخيوط، بينما كان TurboQuant يستخدم NVIDIA A100 GPU.

إن نتيجة تراكب الشرطين هي: يرى القارئ استنتاجًا مفاده أن «RaBitQ أبطأ من TurboQuant بعدة مراتب من حيث الحجم»، لكنه لا يستطيع معرفة أن هذا الاستنتاج مبني على افتراض أن فريق Google قيد حركة الخصم ثم أجراه في المباراة. لم تكشف الورقة بشكل كافٍ عن اختلاف ظروف هذه التجارب.

رد Google: «الدوران العشوائي تقنية عامة، لا يمكن أن يستشهد كل ورقة بكل شيء»

وفقًا لما كشفه قاو جيان يانغ، قال فريق TurboQuant في رد رسائل البريد في مارس 2026: «استخدام الدوران العشوائي وتحويل Johnson-Lindenstrauss هو تقنية معيارية في هذا المجال، ولا يمكننا الاستشهاد بكل ورقة تستخدم هذه الأساليب.»

يرى فريق قاو جيان يانغ أن هذا الأمر يخلط الأوراق: فالمشكلة ليست فيما إذا كان يجب الاستشهاد بكل الأوراق التي استخدمت الدوران العشوائي، بل إن RaBitQ هي العمل الذي—ضمن إعداد المشكلة نفسه تمامًا—جمع هذه الطريقة مع ضغط المتجهات لأول مرة وقدّم إثباتًا لأمثلية ذلك، لذا ينبغي لورقة TurboQuant أن تصف العلاقة بين الاثنين بدقة.

قامت Stanford NLP Group بحسابها الرسمي على X بإعادة نشر إعلان قاو جيان يانغ. وقد نشر فريق قاو جيان يانغ تعليقًا رسميًا علنيًا على منصة ICLR OpenReview، وقدّم شكوى رسمية إلى رئيس مؤتمر ICLR ولجنة الأخلاقيات، وسيقومون لاحقًا بنشر تقرير تقني تفصيلي على arXiv.

قدم مدون تقني مستقل Dario Salvati تقييمًا نسبيًا محايدًا في تحليله: إن لدى TurboQuant مساهمة حقيقية في الأساليب الرياضية، لكن العلاقة بينه وبين RaBitQ أكثر إحكامًا بكثير مما تصفه الورقة.

تلاشي 90 مليار دولار من القيمة السوقية: جدل الورقة يتراكب مع هلع السوق

تأتي هذه الموجة من الجدل الأكاديمي في توقيت شديد الحساسية. بعد أن نشرت Google TurboQuant عبر مدونة رسمية في 24 مارس، تعرض قطاع شرائح التخزين العالمي لعمليات بيع مكثفة. ووفقًا لما نقلته عدة وسائل إعلام مثل CNBC، تراجعت Micron لمدة ست جلسات تداول متتالية بإجمالي خسائر يتجاوز 20%؛ وهبطت SanDisk بنسبة 11% في يوم واحد؛ وتراجعت SK hynix في كوريا بحوالي 6%، وتراجعت Samsung Electronics بنحو 5% تقريبًا، وتراجعت اليابان/سامي Kioxia (أكسيَا) بحوالي 6%. منطق الهلع في السوق بسيط وقاسٍ: فالضغط البرمجي يمكنه خفض متطلبات ذاكرة استدلال الذكاء الاصطناعي بمقدار 6 مرات، وستتعرض النظرة المستقبلية لشرائح التخزين إلى خفض هيكلي في الطلب.

دحض محلل Morgan Stanley Joseph Moore هذا المنطق في تقريره البحثي بتاريخ 26 مارس، محافظًا على توصية «زيادة المراكز» لـ Micron وSanDisk. وأشار Moore إلى أن TurboQuant يضغط فقط نوعًا محددًا من الكاش وهو KV Cache وليس الاستخدام الكلي للذاكرة، ووصف ذلك بأنه «تحسن إنتاجية طبيعي». وبالمثل، استشهد محلل في بنك Wells Fargo Andrew Rocha أيضًا بحجة مفارقة جيفونز: إذ إن تحسين الكفاءة قد يخفض التكاليف لكنه قد يحفز بدلاً من ذلك انتشارًا أكبر نطاقًا لنشر الذكاء الاصطناعي، ما ينتهي برفع الطلب على الذاكرة.

ورقة قديمة، تغليف جديد: مخاطر سلسلة انتقال سردية أبحاث AI إلى السوق

وفقًا لتحليل المدون التقني Ben Pouladian، فقد كانت ورقة TurboQuant قد نُشرت علنًا بالفعل في أبريل 2025، وليست بحثًا جديدًا. بعد أن أعادت Google في 24 مارس تعبئتها وترويجها عبر مدونة رسمية، تسعّر السوق ذلك على أنه إنجاز جديد تمامًا. إن استراتيجية الترويج لـ «ورقة قديمة، إصدار جديد»، المتزامنة مع احتمال وجود انحرافات تجريبية في الورقة، تعكس مخاطر منهجية في سلسلة نقل أبحاث AI من أوراق الأبحاث الأكاديمية إلى سرديات السوق.

وبالنسبة إلى المستثمرين في البنية التحتية للذكاء الاصطناعي، عندما يدّعي بحثٌ ما تحقيق «تحسن في الأداء بعدة مراتب من حيث الحجم»، يجب أولًا التساؤل عما إذا كانت شروط المقارنة المرجعية (benchmark) عادلة.

وقد صرّح فريق قاو جيان يانغ بشكل واضح بأنه سيواصل دفع الحل الرسمي للمشكلة إلى الأمام. أما شركة Google فلم تُصدر بعد ردًا رسميًا على الاتهامات التفصيلية في الخطاب المفتوح.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.27Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.37Kعدد الحائزين:2
    1.04%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.24Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.25Kعدد الحائزين:1
    0.00%
  • تثبيت