العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
استخدام روبوت الدردشة الذكي كمحرك بحث؟ كن حذراً مما تصدقه
خلال الحرب العالمية الأولى، كانت الحكومة البريطانية تبحث عن طرق لمساعدة الناس على تمديد إمداداتهم المحدودة من الطعام. ووجدت منشورات من عشاب مشهور من القرن التاسع عشر قال إن أوراق الراوند يمكن استخدامها كخضروات إلى جانب السيقان.
وقامت الحكومة بطبع منشوراتها الخاصة التي تنصح الناس بأكل أوراق الراوند كسلطة بدلاً من رميها. لكن كانت هناك مشكلة واحدة: أوراق الراوند يمكن أن تكون سامة. وأبلغ عن وفاة أو مرض بعض الأشخاص.
تم تصحيح النصائح وسحب المنشورات من التداول. لكن خلال الحرب العالمية الثانية، كانت الحكومة مرة أخرى تبحث عن طرق لتمديد إمدادات الطعام.
وجدت مخزونًا من الموارد القديمة من الحرب السابقة تشرح مصادر غير تقليدية للطعام، بما في ذلك أوراق الراوند. كان إعادة استخدام المنشورات يبدو أمرًا فعالًا، فتم إرسالها إلى الجمهور. ومرة أخرى، أبلغ عن وفاة أو مرض بعض الأشخاص.
كانت تلك المنشورات معلومات مضللة، لكن الجمهور لم يكن لديه سبب للاشتباه بها في كلتا المرتين. كانت موارد رسمية من قبل الحكومة – فلماذا لا تكون آمنة؟
هذه هي الطريقة التي يمكن أن تتسبب بها المعلومات المضللة في مشاكل حتى بعد تصحيح الخطأ الأولي. ولا تزال العبرة من القصة تتردد في عصر الذكاء الاصطناعي التوليدي (AI).
الروبوتات الدردشة ليست محركات بحث
يستخدم الذكاء الاصطناعي التوليدي لإنشاء نصوص وصور (وأشكال أخرى من البيانات) استنادًا إلى المعلومات الأصلية التي تم استيعابها. لكنه يمكن أن يكون أيضًا محركًا لإنتاج المعلومات المضللة بسرعة تفوق قدرة الناس على إنتاج معلومات آمنة، ناهيك عن التحقق من صحتها وتصحيحها.
وكما توضح قصة الراوند، لا يمكن دائمًا التصحيحات إزالة التلوث الأصلي بشكل صحيح.
لا تعمل منصات الذكاء الاصطناعي مثل ChatGPT وClaude كمحركات بحث تقليدية. لكن الناس يستخدمونها على أنها كذلك لأنها تبدو ملخصة لموضوعات معقدة بسرعة وتتطلب نقرات أقل من عمليات البحث التقليدية على الإنترنت.
تعتمد محركات البحث على مقالات ونصوص حول موضوع معين، ثم تقيّم مدى موثوقية تلك المقالات. بينما يعتمد الذكاء الاصطناعي التوليدي على كميات هائلة من النصوص، من خلالها يقيس احتمالية ظهور كلمات بجانب بعضها البعض.
هذه “نماذج اللغة الكبيرة” تهدف فقط إلى توليد جمل تبدو معقولة، وليس بالضرورة أن تكون دقيقة.
على سبيل المثال، إذا ظهرت عبارة “بيض وخنزير أخضر” بشكل متكرر في كومة الكلمات الضخمة، فمن المرجح أن يصف “البيض والخنزير” بأنه أخضر إذا سُئل.
“محتمل ولكنه غير صحيح”
اعترفت شركة OpenAI، التي طورت ChatGPT، (استنادًا إلى دراستها الخاصة) بأنه لا توجد طريقة لمنع تقديم معلومات خاطئة على أنها حقيقة بسبب طريقة عمل الذكاء الاصطناعي التوليدي. وشرح الباحثون سبب “هلوسة” نماذج اللغة الكبيرة، وكتبوا:
يمكن أن يكون لهذا عواقب في العالم الحقيقي. أظهرت دراسة حديثة أن ChatGPT فشل في التعرف على حالة طبية طارئة في أكثر من نصف الحالات. ويمكن أن يتفاقم ذلك بسبب الأخطاء الموجودة بالفعل في السجلات الطبية، والتي وجدت لجنة استقصائية في المملكة المتحدة عام 2025 أنها أثرت على ما يصل إلى ربع المرضى.
بينما قد يطلب الطبيب مزيدًا من الاختبارات لتأكيد التشخيص، شرح أحد الباحثين أن الذكاء الاصطناعي التوليدي “يقدم الإجابة الخاطئة بنفس الثقة التي يقدم بها الإجابة الصحيحة”.
المشكلة، كما لاحظ عالم آخر، هي أن الذكاء الاصطناعي التوليدي “يبحث ويقلد أنماط الكلمات”. أن يكون صحيحًا أو خاطئًا ليس هو الهدف الحقيقي: “كان من المفترض أن يصنع جملة وفعل ذلك.”
أظهرت الأبحاث أن أدوات الذكاء الاصطناعي التوليدي تسيء تمثيل الأخبار بنسبة 45% من الوقت، بغض النظر عن اللغة أو المنطقة الجغرافية. وهناك الآن قلق حقيقي من أن الذكاء الاصطناعي يعرض حياة الناس للخطر من خلال توليد مسارات مشي غير موجودة.
من السهل السخرية من الذكاء الاصطناعي التوليدي عندما ينصح الناس بأكل الصخور أو تثبيت الإضافات على قاعدة بيتزا بالغراء.
لكن أمثلة أخرى ليست مضحكة جدًا – مثل مخطط وجبات السوبر ماركت الذي اقترح وصفة تنتج غاز الكلور، أو النصائح الغذائية التي تركت شخصًا يعاني من تعرض سام مزمن للبروميد.
البحث عن المعلومات القديمة
سيكون التعليم ووضع قواعد جيدة حول الاستخدام الحذر والمسؤول للذكاء الاصطناعي التوليدي ضروريًا، خاصة مع تداخله في الحكومات والبيروقراطيات والمنظمات المعقدة.
يستخدم السياسيون بالفعل الذكاء الاصطناعي التوليدي في عملهم اليومي، بما في ذلك للبحث في السياسات. وتستخدم أقسام الطوارئ في المستشفيات أدوات الذكاء الاصطناعي لتسجيل ملاحظات المرضى لتوفير الوقت.
واحدة من وسائل الحماية هي محاولة الحصول على معلومات أكثر موثوقية تم إنتاجها قبل أن تتسلل النصوص والصور الملوثة بالذكاء الاصطناعي إلى الإنترنت.
هناك أدوات متاحة للمساعدة في تبسيط تلك العملية، بما في ذلك أداة أنشأها الفنان الأسترالي تيغا برين “لن تعيد إلا المحتوى الذي تم إنشاؤه قبل الإصدار العام الأول لـ ChatGPT في 30 نوفمبر 2022”.
وأخيرًا، إذا كانت غريزتك هي التحقق من صحة القصة في بداية هذا المقال، فقد تكون الكتب التقليدية هي أفضل خيار لك: يمكن العثور على إشارات إلى أن الحكومة البريطانية شجعت مرتين تسمم الراوند في كتاب “حديقة السموم” و"لعنات النباتات السامة والسموم النباتية: حياة الظل للنباتات".