مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
الهلوسة والأصدقاء القدامى.
منذ أن دخلت LLMs في مجال رؤيتنا ، كانت مشكلة الوهم دائما عقبة ابتليت بها عدد لا يحصى من المطورين.
بالطبع ، كانت هناك دراسات لا حصر لها حول مسألة هلوسة نموذج اللغة الكبيرة.
في الآونة الأخيرة ، نشر فريق من معهد هاربين للتكنولوجيا وهواوي مراجعة من 50 صفحة تقدم نظرة عامة شاملة ومتعمقة على آخر التطورات المتعلقة بهلوسة LLM.
بدءا من تصنيف مبتكر لهلوسة LLM ، تتعمق هذه المراجعة في العوامل التي قد تسهم في الهلوسة وتقدم نظرة عامة على طرق ومعايير اكتشاف الهلوسة.
من بينها ، يجب أن يكون هناك بعض الأساليب الأكثر تمثيلا في الصناعة للحد من الهلوسة.
عنوان:
دعونا نلقي نظرة على ما نتحدث عنه في هذه المراجعة.
إذا كنت ترغب في الدراسة بعمق ، يمكنك الانتقال إلى الرابط المرجعي في أسفل المقالة وقراءة الورقة الأصلية.
فئة الوهم
أولا ، دعونا نلقي نظرة على أنواع الهلوسة.
في الصورة أعلاه ، على اليسار هلوسة واقعية. عندما سئل LLM من هو أول شخص يمشي على سطح القمر ، اختلق LLM شخصية وحتى قالها بطريقة ما.
على اليمين توجد مشكلة الدقة في نموذج ملخص النص ، ويمكنك أن ترى أن LLM لخصت السنة مباشرة بشكل غير صحيح بعد رؤية هذه الأخبار.
في هذه المراجعة ، يقدم الباحثون تحليلا متعمقا لأصول الهلوسة في LLMs ، ويغطي مجموعة من العوامل المساهمة من البيانات إلى التدريب إلى مرحلة الاستدلال.
في هذا الإطار ، يشير الباحثون إلى الأسباب المحتملة المتعلقة بالبيانات. على سبيل المثال ، مصادر البيانات المعيبة واستخدام البيانات غير الأمثل ، أو استراتيجيات التدريب التي يمكن أن تحفز الهلوسة أثناء التدريب المسبق والمحاذاة ، بالإضافة إلى العشوائية الناجمة عن استراتيجيات فك التشفير والتمثيلات غير الكاملة في عملية الاستدلال ، على سبيل المثال لا الحصر.
بالإضافة إلى ذلك ، يقدم الباحثون نظرة عامة شاملة على الطرق الفعالة المختلفة المصممة خصيصا للكشف عن الهلوسة في LLMs ، بالإضافة إلى نظرة عامة مفصلة على المعايير المرتبطة بهلوسة LLM ، وكمنصة اختبار لتقييم مدى إنتاج LLMs للهلوسة وفعالية طرق الكشف.
يوضح الشكل أدناه محتوى هذه المراجعة والأبحاث السابقة والأوراق.
الصورة أدناه هي رسم تخطيطي أكثر تفصيلا لأنواع الهلوسة LLM.
تحت الوهم الواقعي ووهم الإخلاص ، يتم أيضا تضمين تصنيف أكثر دقة.
** الهلوسة من نوع الحقائق: **
أ) التناقضات في الوقائع
عندما سئل من كان أول رجل يهبط على سطح القمر ، أجاب LLM أنه كان غاغارين ، وليس أرمسترونغ. هذا النوع من الإجابة لا يتفق مع الحقائق ، لأنه يوجد بالفعل غاغارين نفسه ، لذا فهو ليس تلفيقا.
(ب) تزوير الوقائع
عندما طلب من LLM وصف أصل وحيد القرن ، لم يشر LLM إلى أنه لا يوجد شيء اسمه وحيد القرن في العالم ، ولكن بدلا من ذلك يتكون من فقرة كبيرة. هذا النوع من الأشياء غير المتوفرة في العالم الحقيقي يسمى التلفيق.
يشمل وهم الإخلاص أيضا: تناقضات التعليمات والإجابة ، والتناقضات النصية ، والتناقضات المنطقية.
أ) تناقضات التعليمات والإجابة
عندما يطلب من LLM ترجمة سؤال ، فإن الإجابة الناتجة عن LLM تجيب بالفعل على السؤال ولا تتم ترجمتها. ومن هنا عدم الاتساق بين التعليمات والإجابات.
ب) التناقضات في النص
هذا النوع من عدم الاتساق أكثر شيوعا في مهام التعميم. قد يتجاهل LLM النص المعطى ويلخص خطأ يخرج.
ج) التناقضات المنطقية
عندما يطلب منك إعطاء حل لمعادلة 2x + 3 = 11 ، تنص الخطوة الأولى LLM على أن 3 يتم طرحها من كلا الجانبين في نفس الوقت للحصول على 2x = 8.
كيف يمكن قسمة 8 على 2 يساوي 3؟
مبدأ الهلوسة
البيانات
بعد ذلك ، تبدأ المراجعة في فرز مبادئ الهلوسة.
الفئة الأولى هي مشاكل البيانات.
التضليل والتحيز. نظرا للطلب المتزايد على الشركات واسعة النطاق ، يتم استخدام طرق جمع البيانات الإرشادية لجمع كميات كبيرة من البيانات بكفاءة.
في حين أن هذا النهج يوفر كمية كبيرة من البيانات ، إلا أنه يمكن أن يقدم معلومات مضللة عن غير قصد ويزيد من خطر أخطاء التقليد. بالإضافة إلى ذلك ، يمكن أيضا إدخال التحيزات الاجتماعية عن غير قصد في عملية تعلم LLMs.
تشمل هذه التحيزات بشكل أساسي التحيز المتكرر والتحيزات الاجتماعية المختلفة.
من المهم أن تعرف أن الغرض الرئيسي من التدريب المسبق ل LLM هو تقليد توزيع التدريب. لذلك عندما يتم تدريب LLMs على بيانات غير صحيحة في الواقع ، فقد يقومون عن غير قصد بتضخيم تلك البيانات غير الدقيقة ، مما قد يؤدي إلى الوهم بأن الوقائع غير صحيحة.
الشبكات العصبية ، وخاصة نماذج اللغة الكبيرة ، لديها ميل جوهري لحفظ بيانات التدريب. وقد أظهرت الدراسات أن هذا الميل إلى الذاكرة يزداد مع زيادة حجم النموذج.
ومع ذلك ، في حالة المعلومات المكررة في بيانات ما قبل التدريب ، يمكن أن تكون قدرة الذاكرة المتأصلة مشكلة. هذا التكرار يحول LLM من التعميم إلى الحفظ ، مما يؤدي في النهاية إلى تحيز التكرار ، أي أن LLM سيعطي أولوية كبيرة لاستدعاء البيانات المكررة ، مما يؤدي إلى الهلوسة وينحرف في النهاية عما هو مرغوب فيه.
بالإضافة إلى هذه التحيزات ، فإن الاختلافات في توزيع البيانات هي أيضا أسباب محتملة للهلوسة.
الحالة التالية هي أن LLMs غالبا ما يكون لها حدود معرفية.
في حين أن عددا كبيرا من مجموعات ما قبل التدريب توفر مجموعة واسعة من المعرفة الواقعية ل LLMs ، إلا أن لها حدودها الخاصة. يتجلى هذا القيد بشكل أساسي في جانبين: عدم وجود معرفة واقعية حديثة ومعرفة المجال.
على الرغم من أن LLMs قد أظهرت أداء ممتازا في مجموعة متنوعة من المهام النهائية في المجال العام ، إلا أن خبرتها في المجال المتخصص محدودة بطبيعتها بسبب نقص بيانات التدريب ذات الصلة لأن هذه LLMs للأغراض العامة يتم تدريبها بشكل أساسي على مجموعة واسعة من مجموعات البيانات المتاحة للجمهور.
نتيجة لذلك ، عند مواجهة القضايا التي تتطلب معرفة خاصة بالمجال ، مثل القضايا الطبية والقانونية ، قد تظهر هذه النماذج هلوسة كبيرة ، وغالبا ما تظهر كحقائق ملفقة.
بالإضافة إلى ذلك ، هناك معرفة واقعية عفا عليها الزمن. بالإضافة إلى الافتقار إلى المعرفة الخاصة بالمجال ، هناك قيد متأصل آخر لحدود المعرفة الخاصة ب LLMs وهو قدرتها المحدودة على اكتساب معرفة حديثة.
المعرفة الواقعية المضمنة في LLMs لها حدود زمنية واضحة ويمكن أن تصبح قديمة بمرور الوقت.
بمجرد تدريب هذه النماذج ، لا يتم تحديث معرفتهم الداخلية أبدا.
وبالنظر إلى الطبيعة الديناميكية والمتغيرة باستمرار لعالمنا ، فإن هذا يشكل تحديا. عند مواجهة معرفة المجال التي تتجاوز إطارها الزمني ، غالبا ما تلجأ LLMs إلى تلفيق الحقائق أو تقديم إجابات ربما كانت صحيحة في الماضي ولكنها عفا عليها الزمن الآن في محاولة "للتدبر من أمرها".
في الشكل أدناه ، يظهر النصف العلوي خبرة LLM المفقودة في مجال معين ، بيلة الفينيل كيتون.
النصف الثاني هو أبسط حالة من المعرفة التي عفا عليها الزمن. في عام 2018 ، استضافت بيونغ تشانغ ، كوريا الجنوبية ، دورة الألعاب الأولمبية الشتوية ، وفي عام 2022 ، استضافت بكين دورة الألعاب الأولمبية الشتوية. LLMs ليس لديهم معرفة بهذا الأخير.
يمكن ملاحظة أن الأوهام المتعلقة بالبيانات في LLMs تنبع أساسا من مصادر البيانات الخاطئة وسوء استخدام البيانات. لا تؤدي المعلومات الخاطئة والتحيز المتأصل في مصادر البيانات إلى نشر المعلومات المضللة الساخرة فحسب ، بل تقدم أيضا مخرجات متحيزة تؤدي إلى أشكال مختلفة من الهلوسة.
تصبح قيود المعرفة التي يمتلكها LLMs واضحة عند التعامل مع المعرفة في مجال معين أو عند مواجهة المعرفة الواقعية التي يتم تحديثها بسرعة.
عندما يتعلق الأمر باستخدام البيانات ، تميل LLMs إلى التقاط الارتباطات الخاطئة ، وتظهر صعوبات في استدعاء المعرفة (خاصة المعلومات طويلة الذيل) وسيناريوهات التفكير المعقدة ، مما يزيد من تفاقم الهلوسة.
تسلط هذه التحديات الضوء على الحاجة الملحة لتحسين جودة البيانات وتعزيز قدرة النموذج على التعلم وتذكر المعرفة الواقعية بشكل أكثر فعالية.
التدريب
الآن ، تتحول المراجعة إلى مرحلة تدريب LLMs.
تتكون عملية التدريب في LLM من مرحلتين رئيسيتين:
مرحلة ما قبل التدريب ، حيث يتعلم LLMs التمثيلات العامة والتقاط مجموعة واسعة من المعرفة.
مرحلة المحاذاة ، حيث تتكيف LLMs لمواءمة تعليمات المستخدم بشكل أفضل مع القيم الإنسانية الأساسية. في حين أن هذه العملية قد أسفرت عن أداء لائق ل LLM ، فإن أي أوجه قصور في هذه المراحل قد تؤدي عن غير قصد إلى الهلوسة.
التدريب المسبق هو المرحلة الأساسية من LLMs ، والتي عادة ما تعتمد بنية قائمة على المحولات لنمذجة اللغة السببية في مجموعة ضخمة.
ومع ذلك ، فإن تصميم البنية المتأصلة واستراتيجيات التدريب المحددة التي يستخدمها الباحثون يمكن أن تخلق مشاكل تتعلق بالهلوسة. كما ذكر أعلاه ، تتبنى LLMs عادة معماريات قائمة على المحولات تتبع النموذج الذي أنشأته GPT ، والذي يحصل على تمثيلات من خلال أهداف نمذجة اللغة السببية ، مع نماذج مثل OPT و Llama-2 كونها نماذج لهذا الإطار.
بالإضافة إلى أوجه القصور الهيكلية ، تلعب استراتيجيات التدريب أيضا دورا حاسما. من المهم أن نلاحظ أن الفرق بين التدريب والاستدلال على النموذج التوليدي الانحدار الذاتي يؤدي إلى ظاهرة تحيز التعرض.
وفي مرحلة المحاذاة ، والتي تتضمن عموما عمليتين رئيسيتين ، يعد الضبط الدقيق والتعزيز الخاضع للإشراف من التعليقات البشرية (RLHF) ، خطوة حاسمة في إطلاق قدرات LLM ومواءمتها مع التفضيلات البشرية.
في حين أن المحاذاة يمكن أن تحسن بشكل كبير من جودة استجابات LLM ، إلا أنها تنطوي أيضا على خطر الهلوسة.
هناك جانبان رئيسيان: اختلال القدرة وعدم محاذاة المعتقدات.
كيف تكتشف الهلوسة؟
يعد اكتشاف الأوهام في LLMs أمرا بالغ الأهمية لضمان موثوقية ومصداقية المحتوى الذي تم إنشاؤه.
تعتمد المقاييس التقليدية بشكل كبير على تداخل الكلمات وتفشل في التمييز بين الاختلافات الدقيقة بين المحتوى الموثوق والهلوسة.
يسلط هذا التحدي الضوء على الحاجة إلى طرق كشف أكثر تقدما لهلوسة LLM. نظرا لتنوع هذه الهلوسة ، لاحظ الباحثون أن طرق الكشف تختلف وفقا لذلك.
هنا مثال واحد فقط بالتفصيل -
البحث عن الحقائق الخارجية
كما هو موضح في الشكل أدناه ، من أجل الإشارة بشكل فعال إلى حقيقة وجود أخطاء في مخرجات LLM ، فإن الإستراتيجية الأكثر بديهية هي مقارنة المحتوى الذي تم إنشاؤه بواسطة النموذج مباشرة بمصادر المعرفة الموثوقة.
يتناسب هذا النهج بشكل جيد مع سير عمل مهام التحقق من الحقائق. ومع ذلك ، غالبا ما تستخدم طرق التحقق من الحقائق التقليدية افتراضات مبسطة لأسباب عملية ، مما قد يؤدي إلى التحيز عند تطبيقها على سيناريوهات العالم الحقيقي المعقدة.
وإدراكا لهذه القيود، اقترح بعض الباحثين أنه ينبغي التركيز بشكل أكبر على سيناريوهات العالم الحقيقي، أي الأدلة من مصادر الإنترنت المقيدة زمنيا وغير المنسقة.
لقد كانوا روادا في سير عمل مؤتمت بالكامل يدمج مكونات متعددة ، بما في ذلك استرجاع المستندات الأصلية والبحث الدقيق وتصنيف الأصالة والمزيد.
بالطبع ، هناك عدد من الباحثين الآخرين الذين توصلوا إلى مناهج أخرى ، مثل FACTSCORE ، وهو مقياس دقيق للحقيقة خصيصا لتوليد النص الطويل.
تشمل الطرق الأخرى تقدير عدم اليقين ، كما هو موضح في الشكل أدناه.
هناك أيضا عدد من الدراسات حول الكشف عن أوهام الإخلاص ، كما هو موضح في الشكل أدناه.
وتشمل هذه المقاييس القائمة على الحقائق: تقييم الدقة من خلال اكتشاف التداخل الواقعي بين المحتوى الذي تم إنشاؤه والمصدر.
المقاييس المستندة إلى المصنف: استفد من المصنفات المدربة لتمييز درجة الارتباط بين المحتوى الذي تم إنشاؤه والمصدر.
المقاييس المستندة إلى ضمان الجودة: استفد من نظام الإجابة على الأسئلة للتحقق من تناسق المعلومات بين المصدر والمحتوى الذي تم إنشاؤه.
تقدير عدم اليقين: يقيم الإخلاص من خلال قياس ثقة النموذج في مخرجاته المتولدة.
النهج القائم على القياس: دع LLM يعمل كمقيم ، باستخدام استراتيجيات محددة لتقييم دقة المحتوى الذي تم إنشاؤه.
بعد ذلك ، قام فريق معهد هاربين للتكنولوجيا أيضا بفرز الأساليب الأكثر تطورا للتخفيف من الهلوسة ، وقدم حلولا مجدية للمشاكل المذكورة أعلاه.
ملخص
بشكل عام ، في نهاية الورقة ، قال الباحثون في معهد هاربين للتكنولوجيا إنهم أجروا في هذه المراجعة الشاملة دراسة متعمقة لظاهرة الهلوسة في نماذج اللغة الكبيرة ، والخوض في تعقيد أسبابها الأساسية ، وطرق الكشف الرائدة والمعايير ذات الصلة ، واستراتيجيات التخفيف الفعالة.
بينما أحرز المطورون الكثير من التقدم في هذه المسألة ، لا تزال مشكلة الهلوسة في نماذج اللغات الكبيرة مصدر قلق مستمر يحتاج إلى مزيد من الدراسة.
بالإضافة إلى ذلك ، يمكن استخدام هذه الورقة كضوء إرشادي لتعزيز الذكاء الاصطناعي الآمنة والجديرة بالثقة.
قال فريق معهد هاربين للتكنولوجيا إنه يأمل في تقديم رؤى قيمة لهؤلاء الأشخاص ذوي المثل العليا من خلال استكشاف مشكلة الوهم المعقدة ، وتعزيز تطوير تكنولوجيا الذكاء الاصطناعي في اتجاه أكثر موثوقية وأمانا.
موارد:
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تم إصدار المراجعة المكونة من 50 صفحة لفريق معهد هاربين للتكنولوجيا
المصدر الأصلي: نيو تشييوان
الهلوسة والأصدقاء القدامى.
منذ أن دخلت LLMs في مجال رؤيتنا ، كانت مشكلة الوهم دائما عقبة ابتليت بها عدد لا يحصى من المطورين.
بالطبع ، كانت هناك دراسات لا حصر لها حول مسألة هلوسة نموذج اللغة الكبيرة.
في الآونة الأخيرة ، نشر فريق من معهد هاربين للتكنولوجيا وهواوي مراجعة من 50 صفحة تقدم نظرة عامة شاملة ومتعمقة على آخر التطورات المتعلقة بهلوسة LLM.
بدءا من تصنيف مبتكر لهلوسة LLM ، تتعمق هذه المراجعة في العوامل التي قد تسهم في الهلوسة وتقدم نظرة عامة على طرق ومعايير اكتشاف الهلوسة.
من بينها ، يجب أن يكون هناك بعض الأساليب الأكثر تمثيلا في الصناعة للحد من الهلوسة.
دعونا نلقي نظرة على ما نتحدث عنه في هذه المراجعة.
إذا كنت ترغب في الدراسة بعمق ، يمكنك الانتقال إلى الرابط المرجعي في أسفل المقالة وقراءة الورقة الأصلية.
فئة الوهم
أولا ، دعونا نلقي نظرة على أنواع الهلوسة.
على اليمين توجد مشكلة الدقة في نموذج ملخص النص ، ويمكنك أن ترى أن LLM لخصت السنة مباشرة بشكل غير صحيح بعد رؤية هذه الأخبار.
في هذه المراجعة ، يقدم الباحثون تحليلا متعمقا لأصول الهلوسة في LLMs ، ويغطي مجموعة من العوامل المساهمة من البيانات إلى التدريب إلى مرحلة الاستدلال.
في هذا الإطار ، يشير الباحثون إلى الأسباب المحتملة المتعلقة بالبيانات. على سبيل المثال ، مصادر البيانات المعيبة واستخدام البيانات غير الأمثل ، أو استراتيجيات التدريب التي يمكن أن تحفز الهلوسة أثناء التدريب المسبق والمحاذاة ، بالإضافة إلى العشوائية الناجمة عن استراتيجيات فك التشفير والتمثيلات غير الكاملة في عملية الاستدلال ، على سبيل المثال لا الحصر.
بالإضافة إلى ذلك ، يقدم الباحثون نظرة عامة شاملة على الطرق الفعالة المختلفة المصممة خصيصا للكشف عن الهلوسة في LLMs ، بالإضافة إلى نظرة عامة مفصلة على المعايير المرتبطة بهلوسة LLM ، وكمنصة اختبار لتقييم مدى إنتاج LLMs للهلوسة وفعالية طرق الكشف.
يوضح الشكل أدناه محتوى هذه المراجعة والأبحاث السابقة والأوراق.
** الهلوسة من نوع الحقائق: **
أ) التناقضات في الوقائع
عندما سئل من كان أول رجل يهبط على سطح القمر ، أجاب LLM أنه كان غاغارين ، وليس أرمسترونغ. هذا النوع من الإجابة لا يتفق مع الحقائق ، لأنه يوجد بالفعل غاغارين نفسه ، لذا فهو ليس تلفيقا.
(ب) تزوير الوقائع
عندما طلب من LLM وصف أصل وحيد القرن ، لم يشر LLM إلى أنه لا يوجد شيء اسمه وحيد القرن في العالم ، ولكن بدلا من ذلك يتكون من فقرة كبيرة. هذا النوع من الأشياء غير المتوفرة في العالم الحقيقي يسمى التلفيق.
يشمل وهم الإخلاص أيضا: تناقضات التعليمات والإجابة ، والتناقضات النصية ، والتناقضات المنطقية.
أ) تناقضات التعليمات والإجابة
عندما يطلب من LLM ترجمة سؤال ، فإن الإجابة الناتجة عن LLM تجيب بالفعل على السؤال ولا تتم ترجمتها. ومن هنا عدم الاتساق بين التعليمات والإجابات.
ب) التناقضات في النص
هذا النوع من عدم الاتساق أكثر شيوعا في مهام التعميم. قد يتجاهل LLM النص المعطى ويلخص خطأ يخرج.
ج) التناقضات المنطقية
عندما يطلب منك إعطاء حل لمعادلة 2x + 3 = 11 ، تنص الخطوة الأولى LLM على أن 3 يتم طرحها من كلا الجانبين في نفس الوقت للحصول على 2x = 8.
كيف يمكن قسمة 8 على 2 يساوي 3؟
مبدأ الهلوسة
البيانات
بعد ذلك ، تبدأ المراجعة في فرز مبادئ الهلوسة.
التضليل والتحيز. نظرا للطلب المتزايد على الشركات واسعة النطاق ، يتم استخدام طرق جمع البيانات الإرشادية لجمع كميات كبيرة من البيانات بكفاءة.
في حين أن هذا النهج يوفر كمية كبيرة من البيانات ، إلا أنه يمكن أن يقدم معلومات مضللة عن غير قصد ويزيد من خطر أخطاء التقليد. بالإضافة إلى ذلك ، يمكن أيضا إدخال التحيزات الاجتماعية عن غير قصد في عملية تعلم LLMs.
تشمل هذه التحيزات بشكل أساسي التحيز المتكرر والتحيزات الاجتماعية المختلفة.
من المهم أن تعرف أن الغرض الرئيسي من التدريب المسبق ل LLM هو تقليد توزيع التدريب. لذلك عندما يتم تدريب LLMs على بيانات غير صحيحة في الواقع ، فقد يقومون عن غير قصد بتضخيم تلك البيانات غير الدقيقة ، مما قد يؤدي إلى الوهم بأن الوقائع غير صحيحة.
الشبكات العصبية ، وخاصة نماذج اللغة الكبيرة ، لديها ميل جوهري لحفظ بيانات التدريب. وقد أظهرت الدراسات أن هذا الميل إلى الذاكرة يزداد مع زيادة حجم النموذج.
ومع ذلك ، في حالة المعلومات المكررة في بيانات ما قبل التدريب ، يمكن أن تكون قدرة الذاكرة المتأصلة مشكلة. هذا التكرار يحول LLM من التعميم إلى الحفظ ، مما يؤدي في النهاية إلى تحيز التكرار ، أي أن LLM سيعطي أولوية كبيرة لاستدعاء البيانات المكررة ، مما يؤدي إلى الهلوسة وينحرف في النهاية عما هو مرغوب فيه.
بالإضافة إلى هذه التحيزات ، فإن الاختلافات في توزيع البيانات هي أيضا أسباب محتملة للهلوسة.
الحالة التالية هي أن LLMs غالبا ما يكون لها حدود معرفية.
في حين أن عددا كبيرا من مجموعات ما قبل التدريب توفر مجموعة واسعة من المعرفة الواقعية ل LLMs ، إلا أن لها حدودها الخاصة. يتجلى هذا القيد بشكل أساسي في جانبين: عدم وجود معرفة واقعية حديثة ومعرفة المجال.
على الرغم من أن LLMs قد أظهرت أداء ممتازا في مجموعة متنوعة من المهام النهائية في المجال العام ، إلا أن خبرتها في المجال المتخصص محدودة بطبيعتها بسبب نقص بيانات التدريب ذات الصلة لأن هذه LLMs للأغراض العامة يتم تدريبها بشكل أساسي على مجموعة واسعة من مجموعات البيانات المتاحة للجمهور.
نتيجة لذلك ، عند مواجهة القضايا التي تتطلب معرفة خاصة بالمجال ، مثل القضايا الطبية والقانونية ، قد تظهر هذه النماذج هلوسة كبيرة ، وغالبا ما تظهر كحقائق ملفقة.
بالإضافة إلى ذلك ، هناك معرفة واقعية عفا عليها الزمن. بالإضافة إلى الافتقار إلى المعرفة الخاصة بالمجال ، هناك قيد متأصل آخر لحدود المعرفة الخاصة ب LLMs وهو قدرتها المحدودة على اكتساب معرفة حديثة.
المعرفة الواقعية المضمنة في LLMs لها حدود زمنية واضحة ويمكن أن تصبح قديمة بمرور الوقت.
بمجرد تدريب هذه النماذج ، لا يتم تحديث معرفتهم الداخلية أبدا.
وبالنظر إلى الطبيعة الديناميكية والمتغيرة باستمرار لعالمنا ، فإن هذا يشكل تحديا. عند مواجهة معرفة المجال التي تتجاوز إطارها الزمني ، غالبا ما تلجأ LLMs إلى تلفيق الحقائق أو تقديم إجابات ربما كانت صحيحة في الماضي ولكنها عفا عليها الزمن الآن في محاولة "للتدبر من أمرها".
في الشكل أدناه ، يظهر النصف العلوي خبرة LLM المفقودة في مجال معين ، بيلة الفينيل كيتون.
النصف الثاني هو أبسط حالة من المعرفة التي عفا عليها الزمن. في عام 2018 ، استضافت بيونغ تشانغ ، كوريا الجنوبية ، دورة الألعاب الأولمبية الشتوية ، وفي عام 2022 ، استضافت بكين دورة الألعاب الأولمبية الشتوية. LLMs ليس لديهم معرفة بهذا الأخير.
تصبح قيود المعرفة التي يمتلكها LLMs واضحة عند التعامل مع المعرفة في مجال معين أو عند مواجهة المعرفة الواقعية التي يتم تحديثها بسرعة.
عندما يتعلق الأمر باستخدام البيانات ، تميل LLMs إلى التقاط الارتباطات الخاطئة ، وتظهر صعوبات في استدعاء المعرفة (خاصة المعلومات طويلة الذيل) وسيناريوهات التفكير المعقدة ، مما يزيد من تفاقم الهلوسة.
تسلط هذه التحديات الضوء على الحاجة الملحة لتحسين جودة البيانات وتعزيز قدرة النموذج على التعلم وتذكر المعرفة الواقعية بشكل أكثر فعالية.
التدريب
الآن ، تتحول المراجعة إلى مرحلة تدريب LLMs.
تتكون عملية التدريب في LLM من مرحلتين رئيسيتين:
مرحلة ما قبل التدريب ، حيث يتعلم LLMs التمثيلات العامة والتقاط مجموعة واسعة من المعرفة.
مرحلة المحاذاة ، حيث تتكيف LLMs لمواءمة تعليمات المستخدم بشكل أفضل مع القيم الإنسانية الأساسية. في حين أن هذه العملية قد أسفرت عن أداء لائق ل LLM ، فإن أي أوجه قصور في هذه المراحل قد تؤدي عن غير قصد إلى الهلوسة.
التدريب المسبق هو المرحلة الأساسية من LLMs ، والتي عادة ما تعتمد بنية قائمة على المحولات لنمذجة اللغة السببية في مجموعة ضخمة.
ومع ذلك ، فإن تصميم البنية المتأصلة واستراتيجيات التدريب المحددة التي يستخدمها الباحثون يمكن أن تخلق مشاكل تتعلق بالهلوسة. كما ذكر أعلاه ، تتبنى LLMs عادة معماريات قائمة على المحولات تتبع النموذج الذي أنشأته GPT ، والذي يحصل على تمثيلات من خلال أهداف نمذجة اللغة السببية ، مع نماذج مثل OPT و Llama-2 كونها نماذج لهذا الإطار.
بالإضافة إلى أوجه القصور الهيكلية ، تلعب استراتيجيات التدريب أيضا دورا حاسما. من المهم أن نلاحظ أن الفرق بين التدريب والاستدلال على النموذج التوليدي الانحدار الذاتي يؤدي إلى ظاهرة تحيز التعرض.
وفي مرحلة المحاذاة ، والتي تتضمن عموما عمليتين رئيسيتين ، يعد الضبط الدقيق والتعزيز الخاضع للإشراف من التعليقات البشرية (RLHF) ، خطوة حاسمة في إطلاق قدرات LLM ومواءمتها مع التفضيلات البشرية.
في حين أن المحاذاة يمكن أن تحسن بشكل كبير من جودة استجابات LLM ، إلا أنها تنطوي أيضا على خطر الهلوسة.
هناك جانبان رئيسيان: اختلال القدرة وعدم محاذاة المعتقدات.
كيف تكتشف الهلوسة؟
يعد اكتشاف الأوهام في LLMs أمرا بالغ الأهمية لضمان موثوقية ومصداقية المحتوى الذي تم إنشاؤه.
تعتمد المقاييس التقليدية بشكل كبير على تداخل الكلمات وتفشل في التمييز بين الاختلافات الدقيقة بين المحتوى الموثوق والهلوسة.
يسلط هذا التحدي الضوء على الحاجة إلى طرق كشف أكثر تقدما لهلوسة LLM. نظرا لتنوع هذه الهلوسة ، لاحظ الباحثون أن طرق الكشف تختلف وفقا لذلك.
هنا مثال واحد فقط بالتفصيل -
البحث عن الحقائق الخارجية
كما هو موضح في الشكل أدناه ، من أجل الإشارة بشكل فعال إلى حقيقة وجود أخطاء في مخرجات LLM ، فإن الإستراتيجية الأكثر بديهية هي مقارنة المحتوى الذي تم إنشاؤه بواسطة النموذج مباشرة بمصادر المعرفة الموثوقة.
يتناسب هذا النهج بشكل جيد مع سير عمل مهام التحقق من الحقائق. ومع ذلك ، غالبا ما تستخدم طرق التحقق من الحقائق التقليدية افتراضات مبسطة لأسباب عملية ، مما قد يؤدي إلى التحيز عند تطبيقها على سيناريوهات العالم الحقيقي المعقدة.
وإدراكا لهذه القيود، اقترح بعض الباحثين أنه ينبغي التركيز بشكل أكبر على سيناريوهات العالم الحقيقي، أي الأدلة من مصادر الإنترنت المقيدة زمنيا وغير المنسقة.
لقد كانوا روادا في سير عمل مؤتمت بالكامل يدمج مكونات متعددة ، بما في ذلك استرجاع المستندات الأصلية والبحث الدقيق وتصنيف الأصالة والمزيد.
بالطبع ، هناك عدد من الباحثين الآخرين الذين توصلوا إلى مناهج أخرى ، مثل FACTSCORE ، وهو مقياس دقيق للحقيقة خصيصا لتوليد النص الطويل.
المقاييس المستندة إلى المصنف: استفد من المصنفات المدربة لتمييز درجة الارتباط بين المحتوى الذي تم إنشاؤه والمصدر.
المقاييس المستندة إلى ضمان الجودة: استفد من نظام الإجابة على الأسئلة للتحقق من تناسق المعلومات بين المصدر والمحتوى الذي تم إنشاؤه.
تقدير عدم اليقين: يقيم الإخلاص من خلال قياس ثقة النموذج في مخرجاته المتولدة.
النهج القائم على القياس: دع LLM يعمل كمقيم ، باستخدام استراتيجيات محددة لتقييم دقة المحتوى الذي تم إنشاؤه.
بعد ذلك ، قام فريق معهد هاربين للتكنولوجيا أيضا بفرز الأساليب الأكثر تطورا للتخفيف من الهلوسة ، وقدم حلولا مجدية للمشاكل المذكورة أعلاه.
ملخص
بشكل عام ، في نهاية الورقة ، قال الباحثون في معهد هاربين للتكنولوجيا إنهم أجروا في هذه المراجعة الشاملة دراسة متعمقة لظاهرة الهلوسة في نماذج اللغة الكبيرة ، والخوض في تعقيد أسبابها الأساسية ، وطرق الكشف الرائدة والمعايير ذات الصلة ، واستراتيجيات التخفيف الفعالة.
بينما أحرز المطورون الكثير من التقدم في هذه المسألة ، لا تزال مشكلة الهلوسة في نماذج اللغات الكبيرة مصدر قلق مستمر يحتاج إلى مزيد من الدراسة.
بالإضافة إلى ذلك ، يمكن استخدام هذه الورقة كضوء إرشادي لتعزيز الذكاء الاصطناعي الآمنة والجديرة بالثقة.
قال فريق معهد هاربين للتكنولوجيا إنه يأمل في تقديم رؤى قيمة لهؤلاء الأشخاص ذوي المثل العليا من خلال استكشاف مشكلة الوهم المعقدة ، وتعزيز تطوير تكنولوجيا الذكاء الاصطناعي في اتجاه أكثر موثوقية وأمانا.
موارد: