ديب فيك يُدرّب الذكاء الاصطناعي باستخدام كميات هائلة من الأفلام الإباحية: لكن القانون يحمي فقط الوجه، ولم يهتم أحد أبدًا بمن ينتمي ذلك الجسد إليه؟

مناقشة الفيديوهات الإباحية المزيفة بالذكاء الاصطناعي تركزت لفترة طويلة على الوجه المدمج، متجاهلة أن الجسم ينتمي لمن؟
يُشتبه في أن أكثر من 10,000 تيرابايت من المحتوى البالغ قد استُخدمت لتدريب نماذج nudify.
(ملخص سابق: دراسة من جامعة كاليفورنيا تُظهر ظاهرة “ضباب الدماغ” بالذكاء الاصطناعي: 14% من الموظفين يجن جنونهم بسبب الوكيل والأتمتة، ورغبة في الاستقالة تصل إلى 40%)
(معلومات إضافية: عاجل» هاريسون هيوستن يركب آخر لحظة على طائرة الرئاسة “مرافقة ترامب في زيارته للصين”، تصدّر أخبار تصدير شرائح NVIDIA)

فهرس المقال

تبديل

  • الجسم كمصدر تدريب
  • اضطراب عصر العقود
  • سخرية قانون Take It Down

كلما تحدث أحد عن الفيديوهات الإباحية المزيفة بالذكاء الاصطناعي، يكون التركيز غالبًا على الوجه، الوجه المدمج، الذي يُظهر ما لم تفعله أبدًا. لكن هناك مشكلة أخرى يكاد لا أحد يذكرها: لمن ينتمي ذلك الجسم؟

وفقًا لتقرير من 《technologyreview》، Jennifer، أخصائية علاج نفسي في نيويورك تبلغ من العمر 37 عامًا، استخدمت برنامج التعرف على الوجه للبحث عن فيديوهاتها الإباحية منذ عشر سنوات، ووجدت مقطعًا لم تره من قبل: جسدها، وُضع عليه وجه شخص آخر.

عرفت من الخلفية أن المشهد تم تصويره في 2013، وأدركت: «لقد استخدم شخص ما جسدي لعمل deepfake».

الجسم كمصدر تدريب

وُلد مصطلح deepfake في نوفمبر 2017، حيث استخدم مستخدم Reddit “deepfakes” لدمج وجوه المشاهير على أجساد ممثلي الأفلام الإباحية. منذ ذلك الحين، أصبح جسم المبدعين في صناعة المحتوى البالغ أكثر المواد سرقة، ويقول المحامي المتخصص في صناعة الإباحية Corey Silverstein إن “هذا يحدث باستمرار”.

لكن طبيعة المشكلة تغيرت. لم يعد جسم الممثلين يُقتطف فقط لمقاطع فردية، بل يُستخدم كمصدر تدريب، ليعلم الذكاء الاصطناعي كيفية توليد “صور عارية واقعية”، وكيفية الحركة، وكيف تبدو حقيقية. هذه العملية تتم بدون موافقة واعية، ويكاد يكون من المستحيل تتبعها.

يعتمد تطبيق “nudify” على هذا الأساس: فقط برفع صورة لمرتدية ملابس، يمكنك الحصول على صورة مزيفة عارية. من المؤكد أن هذا النوع من التطبيقات استُخدم فيه أكثر من 10,000 تيرابايت من المحتوى البالغ على الإنترنت كمصدر تدريب، ويكاد المبدعون لا يجدون وسيلة للانتقام.

قال خبير الأدلة الرقمية في جامعة كاليفورنيا بيركلي Hany Farid: «هذه كلها صناديق سوداء». لكن، بالنظر إلى مدى انتشار المحتوى البالغ على الإنترنت، فإن استخدامه في تدريب الذكاء الاصطناعي هو “افتراض معقول”.

المشكلة لا تتوقف عند مصادر التدريب فقط. أصبح الذكاء الاصطناعي قادرًا على إعادة إنتاج مظهر وصوت الممثلين البالغين بشكل كامل. مؤخرًا، علمت المبدعة Tanya Tate أن أحد المعجبين أنفق 20 ألف دولار للدردشة الجنسية مع نسخة AI منها، وهو ما كان احتيالًا من قبل المحتالين. بعد أن تعرض العديد من المعجبين للخداع، بدأوا يلومون Tate نفسها وينشرون ادعاءات كاذبة.

شركة إنفاذ حقوق الملكية الفكرية Takedown Piracy تستخدم تقنية البصمة الرقمية لإزالة 130 مليون فيديو من الانتهاكات من منصة Google وحدها، حتى لو تم تعديل الفيديو أو استبدال الوجه، تظل البصمة الرقمية قادرة على التعرف على المادة الأصلية.

اضطراب عصر العقود

عقد العديد من الممثلين البالغين قبل سنوات، والذي يتضمن بندًا يقول: “الناشر يمكنه استخدام أي تقنية موجودة الآن أو ستُكتشف في المستقبل”. كان التصور آنذاك هو من VHS إلى DVD.

لم يتوقع أحد أن “التقنيات المستقبلية” تعني: تدريب الذكاء الاصطناعي باستخدام محتواك، لإنشاء بديل مركب يمكن أن يحل مكان عملك. وأوضح Stephen Casper، طالب دكتوراه في علوم الحاسوب من MIT، أن الممثلين الذين بدأوا في صناعة المحتوى قبل ظهور الذكاء الاصطناعي، لا يمكنهم الموافقة مسبقًا على استخدامه؛ هذه المخاطر “تُفرض بأثر رجعي”، كما وصفها Jennifer.

تتسارع قدرات الخداع للذكاء الاصطناعي أيضًا. أظهرت دراسة لـ Farid في 2025 أن معدل دقة التعرف على صوت الذكاء الاصطناعي من قبل المشاركين كان حوالي 60% فقط، وهو ليس أعلى بكثير من التخمين العشوائي.

سخرية قانون Take It Down

القانون الفيدرالي الوحيد في الولايات المتحدة الذي يختص بالفيديوهات المزيفة بالذكاء الاصطناعي هو قانون Take It Down، الذي يطالب المواقع بإزالة الصور غير الطوعية خلال 48 ساعة (NCII). الهدف من القانون هو حماية الضحايا، لكنه قد يؤدي إلى نتائج عكسية.

قال أستاذ القانون في جامعة سانتا كلارا، Eric Goldman: «أي شخص يمكنه الإبلاغ عن محتوى إباحي قانوني وموافق عليه من قبل الأطراف، ويزعم أنه NCII، مما يجبر المنصات على إزالته». هذا يجعل القانون أداة محتملة لإزالة المحتوى، ويتوافق تمامًا مع هدف مشروع 2025 في إزالة المحتوى الإباحي من الإنترنت.

لا تعتبر القوانين الأمريكية حالياً هذا النوع من الانتهاكات انتهاكًا للخصوصية، لأن «نحن لا نعرف من المسؤول عنها»، وفقًا لـ Goldman. أعلنت الاتحاد الأوروبي، المملكة المتحدة، أستراليا عن قيود على تطبيق nudify، لكن هذه التطبيقات غالبًا ما تعود بأسماء جديدة بعد إزالتها.

قال Reba Rocket: «الفتاة بالذكاء الاصطناعي ستفعل أي شيء تريده، فهي لا تقول لا. هذا يثير خوفي، خاصة عندما يستخدمون أشخاصًا حقيقيين لتدريب تلك النماذج. وبمجرد أن تنشر على الإنترنت، فهي هناك إلى الأبد».

TRUMP‎-1.48%
NVDA‎-2.41%
TAKE‎-3.23%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • مُثبت