عشرات الملايين من الأخطاء كل ساعة، التحقيق يكشف وهم دقة محرك بحث جوجل AI

robot
إنشاء الملخص قيد التقدم

المؤلف: كلاود، تِك فلو ديب تشو

مقدمة ديب تشو: أظهر أحدث اختبار مشترك بين صحيفة نيويورك تايمز وشركة الذكاء الاصطناعي الناشئة أومي أن دقة وظيفة ملخصات البحث الذكي (AI Overviews) من جوجل تبلغ حوالي 91%، لكن بمعادلة حجم عمليات البحث السنوية التي تتجاوز 5 تريليون عملية، فهذا يعني أن ملايين الإجابات الخاطئة تتولد كل ساعة. والأكثر تعقيدًا هو أنه حتى عندما تكون الإجابة صحيحة، فإن أكثر من نصف روابط المصادر المرتبطة لا تدعم استنتاجاتها.

جوجل تقوم حاليًا بتقديم معلومات خاطئة للمستخدمين على نطاق غير مسبوق، ومعظم الناس لا يدركون ذلك.

وفقًا لنيويورك تايمز، قامت شركة أومي الناشئة باستخدام اختبار SimpleQA القياسي للصناعة الذي طورته شركة أوبن إيه آي لتقييم دقة وظيفة ملخصات جوجل الذكية (AI Overviews). شمل الاختبار 4326 استعلام بحث، وأُجري مرة في أكتوبر من العام الماضي (بتشغيل Gemini 2) ومرة في فبراير من هذا العام (بعد التحديث إلى Gemini 3). أظهرت النتائج أن دقة Gemini 2 كانت حوالي 85%، وارتفعت إلى 91% مع Gemini 3.

91% يبدو رقمًا جيدًا، لكنه يختلف تمامًا عند تطبيقه على حجم عمليات جوجل. فبحسب البيانات، تتعامل جوجل مع حوالي 5 تريليون عملية بحث سنويًا، ومع معدل خطأ قدره 9%، فإن وظيفة الملخصات الذكية تنتج أكثر من 57 مليون إجابة غير دقيقة كل ساعة، أي ما يقرب من مليون إجابة في الدقيقة.

الإجابات صحيحة، لكن المصادر خاطئة

ما يثير القلق أكثر من معدل الدقة هو مشكلة “فقدان الربط” في مصادر الاقتباس.

بيانات أومي تظهر أنه في عصر Gemini 2، كانت 37% من الإجابات الصحيحة تحتوي على مشكلة “اقتباسات بدون أساس”، أي أن الروابط المرفقة لا تدعم المعلومات المقدمة. ومع التحديث إلى Gemini 3، زاد هذا النسبة إلى 56%. بمعنى آخر، النموذج يجيب على الأسئلة بشكل صحيح، لكنه يتجنب تسليم “الواجب” بشكل متكرر.

المدير التنفيذي لأومي، مانوس كوكووميديس، وجه انتقادًا مباشرًا قائلاً: “حتى لو كانت الإجابة صحيحة، كيف تعرف أنها صحيحة؟ كيف يمكنك التحقق؟”

زيادة الاعتماد على مصادر منخفضة الجودة في ملخصات جوجل يزيد من تفاقم المشكلة. أومي اكتشفت أن فيسبوك وريديت هما ثاني ورابع أكبر مصدرين للاقتباسات في ملخصات جوجل. وفي الإجابات غير الدقيقة، كانت نسبة الاقتباسات من فيسبوك تصل إلى 7%، أعلى من 5% في الإجابات الدقيقة.

صحفي بي بي سي ينجح في “تسميم” النظام خلال 24 ساعة

عيب آخر كبير في وظيفة ملخصات جوجل هو سهولة التلاعب بها.

اختبر صحفي في بي بي سي مقالًا مزيفًا تم تصنيعه عمدًا، وخلال أقل من 24 ساعة، بدأ ملخص جوجل الذكي يعرض المعلومات الكاذبة كمعلومات حقيقية للمستخدمين.

وهذا يعني أن أي شخص على دراية بكيفية عمل النظام يمكنه نشر محتوى زائف وزيادة تدفقه ليقوم بـ"تسميم" نتائج البحث. رد متحدث جوجل، نيد أدريانسيك، على ذلك بأن وظيفة الذكاء الاصطناعي في البحث تعتمد على نفس آليات الترتيب والأمان المستخدمة في حجب المحتوى المزعج، وأضاف أن “معظم الأمثلة في الاختبار كانت استعلامات غير واقعية لا يبحث عنها الناس عادةً”.

جوجل ترد: الاختبار نفسه به مشكلة

انتقدت جوجل دراسة أومي بعدة نقاط. وقال متحدث باسم جوجل إن الدراسة “تحتوي على ثغرات خطيرة”، من بينها أن معيار SimpleQA نفسه يتضمن معلومات غير دقيقة؛ وأن أومي تستخدم نموذج الذكاء الاصطناعي الخاص بها، HallOumi، لتقييم أداء نموذج آخر، مما قد يضيف أخطاء إضافية؛ وأن محتوى الاختبار لا يعكس سلوك المستخدم الحقيقي في البحث.

كما أظهرت اختبارات داخلية لجوجل أن Gemini 3 عند تشغيله بشكل مستقل عن إطار بحث جوجل، ينتج نتائج زائفة بنسبة تصل إلى 28%. لكن جوجل تؤكد أن وظيفة ملخصات جوجل تعتمد على نظام ترتيب النتائج لتحسين الدقة، وتتفوق على أداء النموذج نفسه.

ومع ذلك، كما أشار تقييم PCMag، فإن منطق التناقض واضح: إذا كانت حجتك أن “تقرير عدم دقة ذكائنا الاصطناعي هو نفسه يستخدم ذكاء اصطناعي غير دقيق”، فذلك لا يعزز ثقة المستخدمين في دقة منتجك.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.29Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.36Kعدد الحائزين:2
    0.29%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.29Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.32Kعدد الحائزين:2
    0.00%
  • تثبيت