أكثر من "تسميم الذكاء الاصطناعي" بمبالغة: اختبار عملي لـ 4 نماذج كبيرة - قال ذكاء اصطناعي إن حفل 315 لهذا العام لم يُعقد بعد

robot
إنشاء الملخص قيد التقدم

(المصدر: شبكة نينغبو الصينية)

نُشر على شبكة نينغبو الصينية

عرضت قناة CCTV في ليلة 15 مارس 2026 برنامج “3·15” الخاص بها، والذي بُث في مساء نفس اليوم. بعد الكشف عن أنشطة “تسميم” نماذج الذكاء الاصطناعي الكبيرة" GEO (تحسين المحرك التوليدي)، أدرك الكثيرون أن الاعتماد على AI في التوصيات غير موثوق، لأن التجار غير القانونيين يخلقون بشكل جماعي تقييمات زائفة ومحتوى توصيات مزيف، ويغذونه للنماذج الكبيرة، مما يجعل AI يقدم “توصيات مخصصة”.

لكن هناك مستهلكين بعد مشاهدة حالات الكشف عن المخالفات، سألوا: إذا لم أستفسر من النموذج الكبير عن أسئلة ذات توجه شخصي مثل “أي علامة تجارية جيدة” أو “ما هي الخدمات الشعبية”، وأقتصر على المعلومات الموضوعية، هل يمكن الاعتماد على إجابات النموذج الكبير؟

والجواب هو بالنفي أيضا.

الأسئلة المتكررة للنموذج، تزيد من الأخطاء

في 16 مارس، قام الصحفي باختبار بسيط لأربعة من أكثر نماذج الذكاء الاصطناعي استخدامًا بين المستهلكين: طرح عليهم نفس السؤال “ما هي العلامات التجارية التي تم الكشف عنها في برنامج 3·15 لقناة CCTV عام 2026”. وكانت النتيجة أن نموذجًا واحدًا فقط أجاب بشكل صحيح. أما الثلاثة الأخرى، فإجابات اثنين منها تضمنت ليس فقط حالات هذا العام، بل أيضًا حالات من سنوات سابقة؛ والباقي كان غريبًا جدًا، حيث قال: “حتى الآن، لم يُعقد برنامج 3·15 لقناة CCTV في عام 2026. وبما أن اليوم هو 16 مارس 2026، وإذا أُذيع البرنامج بشكل طبيعي في 15 مارس، فسيتم عادةً نشر تقارير مفصلة عن الحالات على قناة CCTV المالية، وتطبيقات الأخبار الرسمية، وجميع وسائل الإعلام الكبرى.”

نموذج الإجابة الصحيحة (لقطة شاشة للإجابة، نفس الشيء فيما بعد)

نموذجان يخلطان بين حالات العام الحالي وسنوات سابقة

واحد من النماذج قال: لم يُعقد البرنامج بعد

أشار بعض المستهلكين إلى أن تضمين حالات من سنوات سابقة في الإجابة لا يُعد خطأ تمامًا، لأنه “يبدو شاملاً”. لكن الفنيين أكدوا أن هذا يكشف بوضوح عن وجود عيوب في النماذج الكبيرة ذاتها: السؤال كان له “إجابة معيارية”، لكن النموذج أخطأ، مما يدل على وجود انحرافات خطيرة في فهم المعنى وانتقاء البيانات.

عند استجواب النموذج مرة أخرى، أظهر هذان النموذجان “المتحمسان جدًا” مشاكل أخرى.

واحدة من الحالات التي كشفت عنها قناة CCTV في العام الماضي كانت عن “إضافة الماء إلى الروبيان” باستخدام مواد حافظة (المعروفة باسم “الفقاعات الدوائية”). فسأل الصحفي النموذجين اللذين قدما هذا الحالة كحالة لهذا العام: “أين يمكن العثور على روابط تقارير CCTV حول زيادة وزن الروبيان؟” قدم أحدهما عدة روابط، منها “إعادة عرض كاملة لبرنامج 3·15 على CCTV”، و"تقرير خاص من CCTV (نص + فيديو)“، و"صفحة خاصة بـ CCTV المالية”، ويبدو أنها موثوقة جدًا. لكن عند النقر على الروابط، تظهر رسالة “عذرًا، ربما بسبب مشكلة في الشبكة أو عدم وجود الصفحة، يرجى المحاولة لاحقًا”. وحتى عند نسخ الرابط في المتصفح، لم يتم فتح الصفحة. يتضح أن الروابط التي قدمها النموذج غير كافية للتحقق من صحة الإجابة.

الروابط التي قدمها النموذج للتحقق تظهر أنها من موقع CCTV، ويبدو أنها موثوقة، لكنها غير قابلة للفتح (لقطة شاشة للصفحة)

أما النموذج الآخر، فقدم روابط من مواقع مختلفة مثل CCTV، Baijiahao، NetEase News، وجميعها قابلة للفتح، لكن ظهرت مشكلة جديدة.

الروابط التي قدمها النموذج الأول من CCTV كانت من تقرير رسمي، وتحتوي على موضوع “روبيان محتوى بالماء”، لكن التاريخ في الصفحة والمحتوى هو 15 مارس 2025. يبدو أن النموذج لاحظ ذلك، وأوضح عند تقديم الرابط أن “بعض نتائج البحث تظهر أن سنة الرابط هي 2025، لكن المحتوى هو تقرير عن برنامج 2026، ربما بسبب أرشفة الموقع أو قواعد إنشاء URL، يرجى الاعتماد على المحتوى الفعلي للصفحة”. يتضح أن النموذج لم يكتشف خطأه، وحاول تبريره.

يحاول النموذج تبرير نفسه (لقطة شاشة للصفحة)

أما الرابط الثاني، فكان لمقال تحليلي حول برنامج 3·15 لهذا العام من جهة إعلامية ذات مصداقية، لكن المحتوى مليء بالأخطاء، وأبرزها أن “المقال التحليلي” قال إن أول حالة تم الكشف عنها في برنامج 3·15 لعام 2026 كانت “روبيان مضاف إليه الماء”، وهو ما يفسر لماذا استخدم النموذج هذا الرابط كمصدر. وأجريت فحوصات على محتوى المقال باستخدام أدوات الكشف عن الذكاء الاصطناعي، وُجد أنه يُظهر علامات على أنه من إنتاج بشري ضعيف، مما يعني أن المقال ربما تم إنشاؤه بواسطة النموذج نفسه، وبالتالي فإن الحالات التي يذكرها قد تكون غير دقيقة.

محتوى خاطئ في مقال تحليلي من وسائل الإعلام (لقطة شاشة للصفحة)

بعد الفحص، تبين أن أثر الذكاء الاصطناعي في المقال التحليلي واضح جدًا (لقطة شاشة للصفحة)

تطور هلوسة الذكاء الاصطناعي، والتحقق هو الحقيقة

قال خبير تقني يعمل على تطوير النماذج الكبيرة، يُدعى شياوهوي: “لقد اكتشف العديد من مستخدمي نماذج الذكاء الاصطناعي الكبيرة أن AI، من أجل إرضاء المستخدمين، يختلق محتوى غير موجود، أو يخلط بين محتويات غير ذات صلة، ويقول كلامًا غير صحيح بشكل رسمي. على الرغم من أن مطوري النماذج يحاولون القضاء على هلوسة AI، إلا أن النتائج ليست مثالية. حاليًا، لا توجد أي نموذج ذكاء اصطناعي عام يمكنه القضاء تمامًا على هلوسة AI.”

وأوضح أن أساس النماذج الكبيرة هو توليد المحتوى بناءً على الاحتمالات، ولا تملك فهمًا حقيقيًا. فهي تبحث عن أنماط إحصائية في كميات هائلة من البيانات، وعند مواجهة أسئلة غير معروفة أو غامضة، فإنها تدمج بشكل “معقول” أنماطًا من البيانات المدربة عليها، وهو السبب الرئيسي وراء هلوسة AI. والأخطاء التي تظهر عند استجواب النموذج تعود إلى هذه الظاهرة.

وأضاف أن “تسميم AI” هو أيضًا استغلال لظاهرة هلوسة AI، حيث أن شركات GEO تغذي الإنترنت بكميات هائلة من المعلومات الزائفة، وتغير توزيع البيانات والإحصائيات في مجالات معينة، مما يوجه النماذج الكبيرة لإنتاج إجابات تتوافق مع مصالح التجار ولكنها تخالف الواقع."

وحذر من أن الجمهور يجب أن يكون حذرًا من هلوسة AI. النماذج الكبيرة ليست غير قابلة للاستخدام، ولكن يجب استخدامها بشكل آمن وواعي وصحيح. على المستخدمين العاديين أن يكونوا مشككين في نتائج AI، وأهم شيء هو تذكر كلمات “الحدود، التحقق، الاستفسار، التدقيق”.

أولاً، عند طرح سؤال على النموذج، يمكن تقييد النطاق، وإضافة عبارات مثل “البحث في الموقع الرسمي لـ某某” أو “البحث في تقارير وسائل الإعلام الموثوقة لـ某某”، لتقليل هلوسة AI.

ثانيًا، يمكن طرح نفس السؤال على نماذج مختلفة لمقارنته، وإذا كانت الإجابات غير متطابقة، يجب أن يكون هناك استفسار فوري.

ثالثًا، يجب طلب روابط مرجعية للإجابات المقدمة من النموذج، والتحقق اليدوي من المصادر. إذا كانت المصادر غير واضحة، أو غير موثوقة، أو الروابط مشكوك فيها، فإن مصداقية إجابة النموذج تنخفض أكثر.

وأخيرًا، يجب الانتباه إلى场景ات استخدام AI الكبيرة. ففي مجالات عالية الخطورة مثل التشخيص الطبي، نصائح الأدوية، الأحكام القانونية، التوجيه الاستثماري، والائتمان المالي، يجب أن يُنظر إلى إجابات AI على أنها “معلومات مرجعية فقط”، ولا يُعتمد عليها في اتخاذ القرارات.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.35Kعدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.00%
  • تثبيت