محققون من قبل مسؤول أخبار Meta الجديد: تقريبا جميع نماذج الذكاء الاصطناعي تتجه نحو اليسار السياسي، وGemini استشهدت بوسائل الإعلام الرسمية الصينية

قبل أن تتحدث عن الأخبار الجديدة من Meta، قام Campbell Brown، المسؤول السابق عن الأخبار في Meta، بتأسيس Forum AI، وقضى 17 شهرًا في تقييم منهجي لجودة المعلومات التي تقدمها نماذج الذكاء الاصطناعي السائدة، واكتشف أن Gemini استشهد بمصادر من المواقع الرسمية للحزب الشيوعي الصيني عند التعامل مع تقارير غير ذات صلة بالصين، وأن جميع النماذج المختبرة تقريبًا تظهر انحيازًا سياسيًا يمينيًا.
(ملخص سابق: تدمير الذكاء الاصطناعي لتقاليد جامعة برينستون التي استمرت 133 عامًا: عندما يصبح “الغش” عادة مقبولة)
(معلومات إضافية: 97,895 محادثة على المنتديات السرية تخبرك: أن مجتمع القراصنة يكره الذكاء الاصطناعي أيضًا)

فهرس المقال

تبديل

  • المشكلة التي لا يختبرها أحد
  • الأخطاء السلسة، أصعب في الاكتشاف من الصمت
  • التشريعات تفرض، وليس الوعي الأخلاقي

Brown هي صحفية سابقة، عملت كمذيعة في CNN، ثم تحولت إلى مسؤولة عن الأخبار في Meta، وتدير مباشرة سياسة عرض الأخبار على Facebook أمام 3 مليارات مستخدم حول العالم.

هذا المنصب أتاح لها رؤية كاملة لكيفية تشكيل المنصات لتدفق المعلومات. تركت Meta قبل 17 شهرًا وأسست Forum AI في نيويورك، متخصصة في شيء تتجنبه شركات النماذج الأساسية بشكل عام: تقييم منهجي لمدى دقة وعدالة وتعدد وجهات النظر في المعلومات التي تقدمها نماذج الذكاء الاصطناعي.

المشكلة التي لا يختبرها أحد

المنتج الرئيسي لـ Forum AI هو إطار مرجعي للأحداث الجيوسياسية.

طريقة العمل: يدعو Forum AI مجموعة من المستشارين المتميزين من مختلف الطيف السياسي والخلفيات المهنية: نيل فيرغسون، فريد زكريا، وزير الخارجية الأمريكي السابق توني بلينكن، زعيم الأقلية في مجلس النواب السابق كيفن مكارثي، المستشارة السابقة للأمن القومي آن نويبرغر… لتقييم إجابات نماذج الذكاء الاصطناعي السائدة حول حدث جيوسياسي معقد واحد تلو الآخر.

حاليًا، وصل Forum AI إلى مستوى توافق يقارب 90% مع خبراء بشريين، مما يمنح نتائج التقييم أساسًا يمكن الدفاع عنه، وليس مجرد رأي فردي.

اكتشفت Brown أن المشكلة تتكون من ثلاثة مستويات، كل مستوى أصعب من الذي يسبقه من ناحية الإصلاح التقني.

المستوى الأول هو ثغرة في منطق اختيار المصادر. Gemini عند التعامل مع تقارير غير مرتبطة بالصين، استشهد بمحتوى من المواقع الرسمية للحزب الشيوعي الصيني. هذه ليست خطأ في الحقائق بشكل عادي، بل مشكلة في منطق تصفية المصادر: الذكاء الاصطناعي يكتفي بتحديد “هذه نصوص، وهذه روابط”، ولا يقيّم “ما هو موقف المصدر، مدى مصداقيته، هل يحمل هدفًا سياسيًا واضحًا”.

الطابع السياسي للمصدر نفسه غير مرئي في عملية إخراج النموذج.

المستوى الثاني هو التحيز السياسي البنيوي. اختبارات Brown أظهرت أن جميع النماذج السائدة تقريبًا تظهر انحيازًا يمينيًا. هذا ليس نظرية مؤامرة، بل نتيجة طبيعية لتوزيع بيانات التدريب. كلما تعلمت الذكاء الاصطناعي من نصوص، يميل إلى تكرار نغمتها ووجهة نظرها.

المحتوى السائد على الإنترنت باللغة الإنجليزية — تقارير وسائل الإعلام الرئيسية، الأوراق الأكاديمية، منشورات وسائل التواصل الاجتماعي — يحمل بشكل عام توجهًا سياسيًا معينًا، والنماذج المدربة ترث هذا التوجه، دون أن تدرك أنها تفعل ذلك.

الأمر الأكثر تعقيدًا هو أن هذا التحيز ليس خطأ برمجي يمكن إصلاحه، بل هو مدمج في منطق كل إخراج من النموذج.

المستوى الثالث هو نقص السياق وتعدد وجهات النظر. تقول Brown إن النماذج الحالية تفتقر عمومًا إلى “السياق الخلفي، وتعدد وجهات النظر، وشفافية الحجج”. الإجابة التي تقدمها الذكاء الاصطناعي عبارة عن جملة إخبارية، وليست “هذه القضية تعتبرها جهة أ، وتمثلها جهة ب، والخلاف الجذري بينهما هو…”.

يعطيك إجابة، لكنه لا يخبرك من أي زاوية انطلقت.

الأخطاء السلسة، أصعب في الاكتشاف من الصمت

تسلط Brown الضوء على نقطة عمياء هيكلية: شركات النماذج الأساسية تقيّم وترتب النماذج بناءً على قدراتها في الرياضيات، والبرمجة، والاستنتاج المنطقي، بينما نادراً ما يُذكر الدقة السياسية وتعدد وجهات النظر في قوائم الاختبارات القياسية.

الأمر بسيط: الكود إما صحيح أو خاطئ، ويمكن معرفة ذلك من خلال الاختبارات. الأسئلة الرياضية لها إجابات معيارية، ويمكن حساب دقتها. لكن “ما هو تقرير الأخبار الجيوسياسية الدقيق والعادل”؟ من يحدد ذلك؟ كم عدد الأشخاص ذوي المواقف المختلفة الذين يحتاجون إلى الاتفاق ليكون الحكم صحيحًا؟ لا توجد حلول هندسية لهذا السؤال.

في عملية تطوير المنتجات التي يقودها المهندسون وتُحدد من خلال قوائم الاختبارات، يتم تجاوز هذا بشكل منهجي. النتيجة: الدقة المعلوماتية تصبح مؤشرًا مخفيًا في نظام تقييم قدرات الذكاء الاصطناعي.

يمكن ملاحظة تكلفة هذا التجاوز من خلال حالة محددة. في العام الماضي، أجرى مجلس مدينة نيويورك تدقيقًا على نظام التوظيف الذكي، للتحقق مما إذا كانت أدوات التصفية التي يستخدمها أصحاب العمل تنتهك قوانين مكافحة التمييز. ووفقًا للنتائج، لم يتم اكتشاف انتهاكات في أكثر من نصف الحالات.

المشكلة ليست في انخفاض معدل الانتهاكات، بل في أن هذا الرقم قد يعكس أن أدوات الذكاء الاصطناعي المستخدمة في التدقيق ليست دقيقة بما يكفي، بحيث لا تستطيع اكتشاف المشكلة، وليس أن المشكلة غير موجودة فعلاً.

هذه هي جوهر حجج Brown: مشكلة الذكاء الاصطناعي ليست فقط في تقديم حقائق خاطئة، بل في جعل الناس يثقون في حقائق خاطئة.
يعرف الشخص أنه لا يعرف شيئًا، على الأقل لديه فرصة للتحقق. لكن عندما يعطي الذكاء الاصطناعي، بصوت سلس وواثق وبدون تردد، إجابة خاطئة، فإن معظم المستخدمين لا يملكون سببًا للشك فيه.

الأخطاء السلسة، أصعب في الاكتشاف من الصمت، وأصعب في التصحيح.

التشريعات تفرض، وليس الوعي الأخلاقي

تقول Brown بشكل مباشر: التغيير لن يأتي من الضغوط الأخلاقية أو الرأي العام، بل من ضغط الامتثال القانوني على الشركات.

وراء حجتها، هناك أساس واقعي: في ظل الحوافز الحالية لصناعة الذكاء الاصطناعي، لا أحد لديه سبب قوي ليتحرك بشكل استباقي لحل هذه المشكلة، حتى تصبح تكلفتها لا يمكن تجاهلها.
في مجالات مثل الموافقة على القروض، والتأمين، والتوظيف، تتعرض قرارات الذكاء الاصطناعي للقيود القانونية الحالية.

بمجرد أن تنتج نماذج الذكاء الاصطناعي نتائج تمييزية أو غير دقيقة، تتحمل الشركات التي تستخدمها المسؤولية القانونية.
وهذا الضغط يُنقل في النهاية إلى مزودي النماذج، مطالبين بتقديم مخرجات قابلة للتدقيق، وقابلة للتحقق، وذات دقة موثوقة.
ليس لأنهم يعتقدون أن ذلك أخلاقي، بل لأن عقود عملائهم تتطلب ذلك.

استثمرت شركة Lerer Hippeau العام الماضي 3 ملايين دولار في الجولة التمويلية الأولى لـ Forum AI.
هذا الرقم صغير في مجال الذكاء الاصطناعي، لكنه يعكس قرارًا: أن “تقييم الذكاء الاصطناعي” هو مجال تجاري، وأن الطلب عليه قد ينمو بسرعة أكبر مما نراه الآن.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • مُثبت