اليوم هو اليوم العالمي للتحقق من الحقائق. قم بتحديث مهاراتك في التعرف على الذكاء الاصطناعي

يُنشأ المحتوى بالذكاء الاصطناعي في كل مكان هذه الأيام، ما يجعل من الصعب بشكل متزايد فصل الحقيقة عن الخيال، خصوصًا عندما يتعلق الأمر بالأخبار العاجلة.

لا مزيد من البحث عن حرب إيران. منذ أن هاجمت الولايات المتحدة وإسرائيل إيران في 28 فبراير، حدّد الباحثون عددًا غير مسبوق من الصور الخاطئة والمضللة التي تم توليدها باستخدام الذكاء الاصطناعي ووصلت إلى عدد لا يحصى من الناس حول العالم. ومن بينها، لقطات مزيفة لعمليات قصف لم تحدث أبدًا، وصور لجنود يُفترض أنهم تم أسرهم، ومقاطع فيديو دعائية أنشأتها إيران تُصوّر الرئيس دونالد ترامب وآخرين على هيئة تماثيل صغيرة مربعة الشكل تشبه قطع ليغو.

اليوم، في يوم التحقق الدولي العاشر السنوي من الحقائق، توفر فرصة جيدة للنظر في هذه التحديات المتطورة.

يتم تداول المعلومات المضللة التي تم إنشاؤها بالذكاء الاصطناعي بسرعة غير مسبوقة من عدد لا ينتهي من المصادر. منذ بداية حرب إيران، روّجت حسابات من جميع أطراف النزاع لهذا النوع من المحتوى.

يعكف معهد الحوار الاستراتيجي، الذي يتتبع التضليل والتطرف عبر الإنترنت، على دراسة منشورات على وسائل التواصل الاجتماعي حول حرب إيران. ومن بين نتائجهم كان وجود مجموعة من حسابات X التي تنشر بانتظام محتوى مُولدًا بالذكاء الاصطناعي، وقد حققت مجتمعة أكثر من مليار مشاهدة منذ بدء النزاع. تم ذلك عبر نحو اثنتي عشرة حسابًا وعشرين، كان كثير منها يحمل تحققًا بعلامة زرقاء.

إليك بعض النصائح للتمييز بين المحتوى المُولد بالذكاء الاصطناعي والواقع في عالم إلكتروني لا يزال يصبح أكثر صعوبة.

                        قصص ذات صلة

‘’’

تَدقيق الحقائق: ادعاءات كاذبة ترامب التي قالها عندما خاطب الأمة بشأن إيران

            4 دقائق للقراءة

24

‘’’

صعود النفط وهبوط الأسهم الآسيوية بعد أن قال ترامب إن الولايات المتحدة ستضرب إيران بقوة و"تُنجز المهمة"

            دقيقتان للقراءة

‘’’

اقرأ النص الكامل لخطاب ترامب إلى الأمة

            13 دقيقة للقراءة

‘’’

ابحث عن مؤشرات بصرية

عندما بدأت الصور المُولدة بالذكاء الاصطناعي بالانتشار على نطاق واسع عبر الإنترنت لأول مرة، كانت توجد غالبًا دلالات واضحة يمكن أن تُعرّفها على أنها مفبركة. ربما كان لدى الشخص عدد قليل جدًا — أو عدد كبير جدًا — من الأصابع، أو كانت صوته غير متزامن مع فمه. قد تكون النصوص بلا معنى. كانت الأشياء كثيرًا ما تُشوَّه أو تفتقد عناصر أساسية. ومع استمرار تطور التكنولوجيا، أصبحت هذه القرائن أقل شيوعًا مما كانت عليه سابقًا، لكن لا يزال من المفيد البحث عنها. انتبه إلى التناقضات مثل سيارة تظهر في مقطع فيديو في لحظة ثم تختفي في اللحظة التالية، أو تصرفات لا يمكن أن تحدث وفقًا لقوانين الفيزياء. قد تكون بعض الصور أيضًا مصقولة بشكل مفرط أو تمتلك لمعانًا غير طبيعي.

ابحث عن مصدر

تُشارك الصور المُولدة بالذكاء الاصطناعي مرارًا وتكرارًا. إحدى طرق تحديد أصالتها (أو عدمها) هي تتبع مصدرها. يُعد البحث العكسي عن الصور طريقة بسيطة للقيام بذلك. إذا كنت تنظر إلى مقطع فيديو، فالتقط لقطة شاشة أولًا. يمكن أن يؤدي ذلك إلى حساب على وسائل التواصل الاجتماعي يقوم تحديدًا بتوليد محتوى قائم على الذكاء الاصطناعي، أو صورة أقدم يتم تقديمها بشكل مضلل، أو شيء غير متوقع تمامًا.

استمع إلى الخبراء

ابحث عن مصادر متعددة موثقة يمكن أن تساعد في التحقق من صحة الصورة. على سبيل المثال، قد يعني ذلك إجراء تدقيق من وسيلة إعلامية موثوقة، أو تصريحًا من شخصية عامة، أو منشورًا على وسائل التواصل الاجتماعي من خبير في المعلومات المضللة. قد تمتلك هذه المصادر تقنيات أكثر تقدمًا لتحديد المحتوى المُولد بالذكاء الاصطناعي أو الوصول إلى معلومات حول الصورة غير متاحة لعامة الجمهور.

استخدم التكنولوجيا

هناك العديد من أدوات اكتشاف الذكاء الاصطناعي التي يمكن أن تكون نقطة بداية مفيدة. لكن كن حذرًا، لأنها ليست دائمًا دقيقة في تقييماتها. تتضمن الصور التي تم إنشاؤها أو تعديلها باستخدام الذكاء الاصطناعي عبر تطبيق Gemini من Google أداةً لتضمين علامات مائية رقمية غير مرئية تُسمى SynthID، ويمكن للتطبيق اكتشافها. أضافت أدوات إنشاء أخرى للذكاء الاصطناعي علامات مائية مرئية إلى المحتوى الذي تنتجه. وغالبًا ما يكون من السهل إزالتها، ما يعني أن غياب علامة مائية من هذا النوع ليس دليلًا على أن الصورة حقيقية.

هلل قليلاً

في بعض الأحيان يكون الأمر مجرد العودة إلى الأساسيات. أوقف الأمر، وخذ نفسًا، ولا تشارك فورًا شيئًا لا تعرف أنه حقيقي. غالبًا ما يعتمد المتلاعبون على حقيقة أن الناس يتركون عواطفهم وآرائهم الحالية توجه ردود أفعالهم تجاه المحتوى. قد توفر قراءة التعليقات قرائن حول ما إذا كانت الصورة التي تنظر إليها حقيقية أم لا. ربما لاحظ مستخدم آخر شيئًا لم تلاحظه أنت أو تمكن من العثور على المصدر الأصلي. ومع ذلك، في النهاية، ليس دائمًا ممكنًا تحديد ما إذا كانت الصورة مُولدة بالذكاء الاصطناعي بدقة 100%، لذا ابقَ يقظًا لاحتمال ألا تكون حقيقية.

هل رأيت شيئًا يبدو كاذبًا أو مضللًا؟ أرسل بريدًا إلكترونيًا إلينا على [email protected].


اعثر على تدقيقات AP Fact Checks هنا:

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت