استخدام روبوت الدردشة الذكي كمحرك بحث؟ كن حذراً مما تصدقه

خلال الحرب العالمية الأولى، كانت الحكومة البريطانية تبحث عن طرق لمساعدة الناس على تمديد إمداداتهم المحدودة من الطعام. ووجدت منشورات من عشاب مشهور من القرن التاسع عشر قال إن أوراق الراوند يمكن استخدامها كخضروات إلى جانب السيقان.

وقامت الحكومة بطبع منشوراتها الخاصة التي تنصح الناس بأكل أوراق الراوند كسلطة بدلاً من رميها. لكن كانت هناك مشكلة واحدة: أوراق الراوند يمكن أن تكون سامة. وأبلغ عن وفاة أو مرض بعض الأشخاص.

تم تصحيح النصائح وسحب المنشورات من التداول. لكن خلال الحرب العالمية الثانية، كانت الحكومة مرة أخرى تبحث عن طرق لتمديد إمدادات الطعام.

وجدت مخزونًا من الموارد القديمة من الحرب السابقة تشرح مصادر غير تقليدية للطعام، بما في ذلك أوراق الراوند. كان إعادة استخدام المنشورات يبدو أمرًا فعالًا، فتم إرسالها إلى الجمهور. ومرة أخرى، أبلغ عن وفاة أو مرض بعض الأشخاص.

كانت تلك المنشورات معلومات مضللة، لكن الجمهور لم يكن لديه سبب للاشتباه بها في كلتا المرتين. كانت موارد رسمية من قبل الحكومة – فلماذا لا تكون آمنة؟

هذه هي الطريقة التي يمكن أن تتسبب بها المعلومات المضللة في مشاكل حتى بعد تصحيح الخطأ الأولي. ولا تزال العبرة من القصة تتردد في عصر الذكاء الاصطناعي التوليدي (AI).

الروبوتات الدردشة ليست محركات بحث

يستخدم الذكاء الاصطناعي التوليدي لإنشاء نصوص وصور (وأشكال أخرى من البيانات) استنادًا إلى المعلومات الأصلية التي تم استيعابها. لكنه يمكن أن يكون أيضًا محركًا لإنتاج المعلومات المضللة بسرعة تفوق قدرة الناس على إنتاج معلومات آمنة، ناهيك عن التحقق من صحتها وتصحيحها.

وكما توضح قصة الراوند، لا يمكن دائمًا التصحيحات إزالة التلوث الأصلي بشكل صحيح.

لا تعمل منصات الذكاء الاصطناعي مثل ChatGPT وClaude كمحركات بحث تقليدية. لكن الناس يستخدمونها على أنها كذلك لأنها تبدو ملخصة لموضوعات معقدة بسرعة وتتطلب نقرات أقل من عمليات البحث التقليدية على الإنترنت.

تعتمد محركات البحث على مقالات ونصوص حول موضوع معين، ثم تقيّم مدى موثوقية تلك المقالات. بينما يعتمد الذكاء الاصطناعي التوليدي على كميات هائلة من النصوص، من خلالها يقيس احتمالية ظهور كلمات بجانب بعضها البعض.

هذه “نماذج اللغة الكبيرة” تهدف فقط إلى توليد جمل تبدو معقولة، وليس بالضرورة أن تكون دقيقة.

على سبيل المثال، إذا ظهرت عبارة “بيض وخنزير أخضر” بشكل متكرر في كومة الكلمات الضخمة، فمن المرجح أن يصف “البيض والخنزير” بأنه أخضر إذا سُئل.

“محتمل ولكنه غير صحيح”

اعترفت شركة OpenAI، التي طورت ChatGPT، (استنادًا إلى دراستها الخاصة) بأنه لا توجد طريقة لمنع تقديم معلومات خاطئة على أنها حقيقة بسبب طريقة عمل الذكاء الاصطناعي التوليدي. وشرح الباحثون سبب “هلوسة” نماذج اللغة الكبيرة، وكتبوا:

يمكن أن يكون لهذا عواقب في العالم الحقيقي. أظهرت دراسة حديثة أن ChatGPT فشل في التعرف على حالة طبية طارئة في أكثر من نصف الحالات. ويمكن أن يتفاقم ذلك بسبب الأخطاء الموجودة بالفعل في السجلات الطبية، والتي وجدت لجنة استقصائية في المملكة المتحدة عام 2025 أنها أثرت على ما يصل إلى ربع المرضى.

بينما قد يطلب الطبيب مزيدًا من الاختبارات لتأكيد التشخيص، شرح أحد الباحثين أن الذكاء الاصطناعي التوليدي “يقدم الإجابة الخاطئة بنفس الثقة التي يقدم بها الإجابة الصحيحة”.

المشكلة، كما لاحظ عالم آخر، هي أن الذكاء الاصطناعي التوليدي “يبحث ويقلد أنماط الكلمات”. أن يكون صحيحًا أو خاطئًا ليس هو الهدف الحقيقي: “كان من المفترض أن يصنع جملة وفعل ذلك.”

أظهرت الأبحاث أن أدوات الذكاء الاصطناعي التوليدي تسيء تمثيل الأخبار بنسبة 45% من الوقت، بغض النظر عن اللغة أو المنطقة الجغرافية. وهناك الآن قلق حقيقي من أن الذكاء الاصطناعي يعرض حياة الناس للخطر من خلال توليد مسارات مشي غير موجودة.

من السهل السخرية من الذكاء الاصطناعي التوليدي عندما ينصح الناس بأكل الصخور أو تثبيت الإضافات على قاعدة بيتزا بالغراء.

لكن أمثلة أخرى ليست مضحكة جدًا – مثل مخطط وجبات السوبر ماركت الذي اقترح وصفة تنتج غاز الكلور، أو النصائح الغذائية التي تركت شخصًا يعاني من تعرض سام مزمن للبروميد.

البحث عن المعلومات القديمة

سيكون التعليم ووضع قواعد جيدة حول الاستخدام الحذر والمسؤول للذكاء الاصطناعي التوليدي ضروريًا، خاصة مع تداخله في الحكومات والبيروقراطيات والمنظمات المعقدة.

يستخدم السياسيون بالفعل الذكاء الاصطناعي التوليدي في عملهم اليومي، بما في ذلك للبحث في السياسات. وتستخدم أقسام الطوارئ في المستشفيات أدوات الذكاء الاصطناعي لتسجيل ملاحظات المرضى لتوفير الوقت.

واحدة من وسائل الحماية هي محاولة الحصول على معلومات أكثر موثوقية تم إنتاجها قبل أن تتسلل النصوص والصور الملوثة بالذكاء الاصطناعي إلى الإنترنت.

هناك أدوات متاحة للمساعدة في تبسيط تلك العملية، بما في ذلك أداة أنشأها الفنان الأسترالي تيغا برين “لن تعيد إلا المحتوى الذي تم إنشاؤه قبل الإصدار العام الأول لـ ChatGPT في 30 نوفمبر 2022”.

وأخيرًا، إذا كانت غريزتك هي التحقق من صحة القصة في بداية هذا المقال، فقد تكون الكتب التقليدية هي أفضل خيار لك: يمكن العثور على إشارات إلى أن الحكومة البريطانية شجعت مرتين تسمم الراوند في كتاب “حديقة السموم” و"لعنات النباتات السامة والسموم النباتية: حياة الظل للنباتات".

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.33Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.39Kعدد الحائزين:2
    0.58%
  • القيمة السوقية:$2.32Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.31Kعدد الحائزين:1
    0.00%
  • تثبيت