العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
اليوم هو اليوم العالمي للتحقق من الحقائق. قم بتحديث مهاراتك في التعرف على الذكاء الاصطناعي
يتم العثور على المحتوى المُولَّد بواسطة الذكاء الاصطناعي في كل مكان هذه الأيام، ما يجعل من الصعب بشكل متزايد التمييز بين الحقيقة والخيال، خصوصًا عندما يتعلق الأمر بالأخبار العاجلة.
لا مزيد من البحث عن حرب إيران. منذ أن هاجمت الولايات المتحدة وإسرائيل إيران في 28 فبراير، حدد الباحثون عددًا غير مسبوق من الصور الكاذبة والمضللة التي تم توليدها باستخدام الذكاء الاصطناعي وتمت مشاركتها مع عدد لا يحصى من الأشخاص حول العالم. ومن بينها، لقطات مزيفة عن قصف لم يحدث، وصور لجنود يُفترض أنهم قد تم أسرهم، ومقاطع دعائية أنشأها النظام الإيراني تُظهر الرئيس دونالد ترامب وآخرين على هيئة تماثيل صغيرة شبيهة بقطع ليغو ذات شكل كتلي.
يوم الخميس، الموافق للذكرى السنوية العاشرة ليوم التحقق الدولي من الحقائق، يتيح فرصة جيدة للنظر في هذه التحديات المتطورة.
يتم تداول المعلومات المضللة المُنشأة بالذكاء الاصطناعي بسرعة غير مسبوقة من عدد لا نهائي من المصادر. منذ البداية في حرب إيران، روّجت حسابات من جميع أطراف الصراع لهذا المحتوى.
يدرس المعهد للحوار الاستراتيجي، الذي يتابع التضليل والتطرف على الإنترنت، منشورات على وسائل التواصل الاجتماعي حول حرب إيران. ومن بين نتائجهم كانت مجموعة من حسابات X تنشر بانتظام محتوى مُولَّدًا بالذكاء الاصطناعي وقد اكتسبت مجتمعةً أكثر من 1 مليار مشاهدة منذ بدء الصراع. تم ذلك عبر ما يقرب من نحو عشرين حسابًا، كان كثير منها يحمل تحققًا بالعلامة الزرقاء.
إليك بعض النصائح لتمييز المحتوى المُولَّد بالذكاء الاصطناعي عن الواقع في عالم رقمي أصبح من الصعب فيه ذلك بشكل متزايد.
Look for visual cues
عند بدء انتشار الصور المُولَّدة بواسطة الذكاء الاصطناعي على نطاق واسع عبر الإنترنت، كانت غالبًا توجد إشارات واضحة يمكن أن تحدد أنها مُفبركة. ربما كان لدى شخص ما أصابع قليلة جدًا — أو كثيرة جدًا — أو أن صوته لم يكن متزامنًا مع حركة فمه. قد تكون النصوص بلا معنى. وغالبًا ما تكون الأشياء مشوّهة أو تفتقد إلى مكوّنات رئيسية. ومع استمرار تطور التكنولوجيا، لم تعد هذه القرائن شائعة كما كانت سابقًا، لكن لا يزال من الجدير البحث عنها. راقب التناقضات مثل سيارة تظهر في مقطع فيديو لحظة ثم تختفي في اللحظة التالية، أو أفعالًا لا تكون ممكنة وفقًا لقوانين الفيزياء. قد تكون بعض الصور أيضًا مُصقولة بشكل مفرط أو تحمل لمعانًا غير طبيعي.
اقرأ المزيد
ابحث عن مصدر
تُشارك الصور المُولّدة بواسطة الذكاء الاصطناعي مرارًا وتكرارًا. إحدى طرق تحديد أصالتها (أو عدمها) تتمثل في تتبع منشئها. يُعد البحث العكسي عن الصور طريقة بسيطة للقيام بذلك. إذا كنت تنظر إلى مقطع فيديو، فالتقط لقطة شاشة أولًا. يمكن أن يقود ذلك إلى حساب على وسائل التواصل الاجتماعي يقوم تحديدًا بإنشاء محتوى بالذكاء الاصطناعي، أو إلى صورة أقدم يتم تقديمها بشكل مضلل، أو إلى شيء غير متوقع تمامًا.
استمع إلى الخبراء
ابحث عن مصادر متعددة موثقة يمكن أن تساعد في التحقق من هوية الصورة. على سبيل المثال، قد يعني ذلك تدقيقًا للحقائق من وسيلة إعلامية موثوقة، أو تصريحًا من شخصية عامة، أو منشورًا على وسائل التواصل الاجتماعي من خبير في المعلومات المضللة. قد تمتلك هذه المصادر تقنيات أكثر تقدمًا لتحديد المحتوى المُولَّد بالذكاء الاصطناعي أو الوصول إلى معلومات حول الصورة غير متاحة لعامة الجمهور.
استفد من التكنولوجيا
توجد العديد من أدوات كشف الذكاء الاصطناعي التي قد تكون مكانًا مفيدًا للبدء. لكن احذر، لأنها ليست دائمًا صحيحة في تقييماتها. تشمل الصور التي تم إنشاؤها أو تعديلها باستخدام الذكاء الاصطناعي عبر تطبيق Gemini من Google أداةً لتضمين علامات مائية رقمية غير مرئية تُسمى SynthID، والتي يمكن للتطبيق اكتشافها. وقد أضافت أدوات إنشاء أخرى بالذكاء الاصطناعي علامات مائية مرئية إلى المحتوى الذي تنتجه. تكون غالبًا سهلة الإزالة رغم ذلك، ما يعني أن عدم وجود علامة مائية من هذا النوع ليس دليلًا على أن الصورة حقيقية.
تمهل
أحيانًا المسألة تتعلق فقط بالعودة إلى الأساسيات. توقف، وخذ نفسًا، ولا تشارك فورًا شيئًا لا تعرف أنه حقيقي. غالبًا ما يعتمد المسيئون على حقيقة أن الناس يتركون مشاعرهم وآرائهم الحالية تقود ردود أفعالهم تجاه المحتوى. قد توفر قراءة التعليقات قرائن حول ما إذا كانت الصورة التي تنظر إليها حقيقية أم لا. ربما لاحظ مستخدم آخر شيئًا لم تلاحظه أو كان قادرًا على العثور على المصدر الأصلي. ومع ذلك، في النهاية ليس دائمًا ممكنًا تحديد ما إذا كانت الصورة مُولَّدة بالذكاء الاصطناعي بدقة 100%، لذا كن يقظًا لاحتمال ألا تكون حقيقية.
هل رأيت شيئًا يبدو كاذبًا أو مضللًا؟ أرسل لنا بريدًا إلكترونيًا على [email protected].
اعثر على تدقيقات الحقائق التابعة لـ AP هنا: