فشلت Verbraucherzentrale NRW، وهي منظمة حماية المستهلك الممولة من الدولة ومقرها ألمانيا، في محاولتها القانونية لمنع Meta Platforms من استخدام بيانات المستخدمين العامة من منصاتها الاجتماعية، إنستغرام وفيسبوك، لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وذلك بعد حكم قضائي يوم الجمعة، 23 مايو.
طالبت مجموعة حقوق المستهلكين بوقف استخدام ميتا المخطط لمحتوى المستخدمين عبر منصاتها في الاتحاد الأوروبي (EU) لتطوير تقنياتها في الذكاء الاصطناعي. ومع ذلك، رفضت المحكمة في كولونيا، ألمانيا، الطلب.
خطط ميتا والتحدي القانوني
في أبريل، أعلنت ميتا، الشركة الأم لفيسبوك وإنستغرام وواتساب، أنها ستبدأ في تدريب نماذج الذكاء الاصطناعي الخاصة بها باستخدام المنشورات العامة والتفاعلات من المستخدمين البالغين في الاتحاد الأوروبي اعتبارًا من 27 مايو 2025.
يشمل ذلك أي محتوى بالإضافة إلى التعليقات التي جعلها المستخدمون البالغون من العمر 18 عامًا متاحة للجمهور على منصاتهم. قالت ميتا إنها لن تشمل الرسائل الخاصة لهذه الأغراض.
كما أعلنت الشركة أنها ستقوم بإبلاغ المستخدمين بسياسات استخدام البيانات الجديدة وتزويدهم بالقدرة على الانسحاب، وقد أفادت التقارير بأنها قامت بذلك بالفعل.
ومع ذلك، فإن Verbraucherzentrale NRW تدعي أن Meta قد تكون في انتهاك للوائح حماية البيانات العامة (GDPR)، التي تنظم خصوصية البيانات في الاتحاد الأوروبي.
في بيان على موقع المجموعة، قالت كريستين ستيفن، المدافعة عن حماية البيانات، "لا يمكن استبعاد أن المعلومات الحساسة بشكل خاص، والتي تحظى بحماية خاصة بموجب اللائحة العامة لحماية البيانات، تُستخدم أيضًا لأغراض تدريب الذكاء الاصطناعي."
مخاوف الخصوصية الأوسع والالتماسات المحتملة
تعتبر القضية جزءًا من تدقيق أوسع في نهج شركات التكنولوجيا الكبرى تجاه الذكاء الاصطناعي واستخدام البيانات الشخصية.
NOYB (لا يخصك)، وهي منظمة أوروبية أخرى للدفاع عن الخصوصية يقودها الناشط ماكس شريمس، أصدرت رسالة توقّف وامتناع إلى العملاق التكنولوجي الذي يقوده مارك زوكربيرغ لاستخدامه المخطط لبيانات المستخدمين في تدريب الذكاء الاصطناعي، منتقدة مبررات ميتا حول المصلحة المشروعة بموجب قواعد الخصوصية في الاتحاد الأوروبي.
قالت المنظمة إنها قد تقدم طلبًا قضائيًا بموجب إجراءات التعويض الجماعي للاتحاد الأوروبي إذا رفضت ميتا التصرف. كما ذكرت NOYB في السابق أن الشركات يجب أن تتبنى نموذج "الاختيار الإيجابي" بدلاً من تحميل المستخدمين عبء الاختيار للخروج.
على الرغم من أن محكمة مقرها كولونيا قد رفضت التحدي لخطط ميتا، إلا أن المحللين القانونيين يقترحون أن المعركة لم تنته بعد.
عرفت الهيئات التنظيمية في القارة الأوروبية بسياساتها الصارمة لحماية المستهلك، والتي تعرضت مؤخراً لانتقادات شديدة من إدارة دونالد ترامب.
حتى الآن، لا تزال ميتا في وضع قانوني سليم لبدء دمج البيانات العامة الأوروبية في نظم الذكاء الاصطناعي الخاصة بها.
أكاديمية كريبتوبوليتان: هل ترغب في زيادة أموالك في 2025؟ تعلم كيف تفعل ذلك مع DeFi في صفنا الإلكتروني القادم. احفظ مكانك
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
محكمة ألمانية تلغي الطلب لمنع ميتا من استخدام بيانات إنستغرام وفيسبوك في الذكاء الاصطناعي
فشلت Verbraucherzentrale NRW، وهي منظمة حماية المستهلك الممولة من الدولة ومقرها ألمانيا، في محاولتها القانونية لمنع Meta Platforms من استخدام بيانات المستخدمين العامة من منصاتها الاجتماعية، إنستغرام وفيسبوك، لتدريب نماذج الذكاء الاصطناعي الخاصة بها، وذلك بعد حكم قضائي يوم الجمعة، 23 مايو.
طالبت مجموعة حقوق المستهلكين بوقف استخدام ميتا المخطط لمحتوى المستخدمين عبر منصاتها في الاتحاد الأوروبي (EU) لتطوير تقنياتها في الذكاء الاصطناعي. ومع ذلك، رفضت المحكمة في كولونيا، ألمانيا، الطلب.
خطط ميتا والتحدي القانوني
في أبريل، أعلنت ميتا، الشركة الأم لفيسبوك وإنستغرام وواتساب، أنها ستبدأ في تدريب نماذج الذكاء الاصطناعي الخاصة بها باستخدام المنشورات العامة والتفاعلات من المستخدمين البالغين في الاتحاد الأوروبي اعتبارًا من 27 مايو 2025.
يشمل ذلك أي محتوى بالإضافة إلى التعليقات التي جعلها المستخدمون البالغون من العمر 18 عامًا متاحة للجمهور على منصاتهم. قالت ميتا إنها لن تشمل الرسائل الخاصة لهذه الأغراض.
كما أعلنت الشركة أنها ستقوم بإبلاغ المستخدمين بسياسات استخدام البيانات الجديدة وتزويدهم بالقدرة على الانسحاب، وقد أفادت التقارير بأنها قامت بذلك بالفعل.
ومع ذلك، فإن Verbraucherzentrale NRW تدعي أن Meta قد تكون في انتهاك للوائح حماية البيانات العامة (GDPR)، التي تنظم خصوصية البيانات في الاتحاد الأوروبي.
في بيان على موقع المجموعة، قالت كريستين ستيفن، المدافعة عن حماية البيانات، "لا يمكن استبعاد أن المعلومات الحساسة بشكل خاص، والتي تحظى بحماية خاصة بموجب اللائحة العامة لحماية البيانات، تُستخدم أيضًا لأغراض تدريب الذكاء الاصطناعي."
مخاوف الخصوصية الأوسع والالتماسات المحتملة
تعتبر القضية جزءًا من تدقيق أوسع في نهج شركات التكنولوجيا الكبرى تجاه الذكاء الاصطناعي واستخدام البيانات الشخصية.
NOYB (لا يخصك)، وهي منظمة أوروبية أخرى للدفاع عن الخصوصية يقودها الناشط ماكس شريمس، أصدرت رسالة توقّف وامتناع إلى العملاق التكنولوجي الذي يقوده مارك زوكربيرغ لاستخدامه المخطط لبيانات المستخدمين في تدريب الذكاء الاصطناعي، منتقدة مبررات ميتا حول المصلحة المشروعة بموجب قواعد الخصوصية في الاتحاد الأوروبي.
قالت المنظمة إنها قد تقدم طلبًا قضائيًا بموجب إجراءات التعويض الجماعي للاتحاد الأوروبي إذا رفضت ميتا التصرف. كما ذكرت NOYB في السابق أن الشركات يجب أن تتبنى نموذج "الاختيار الإيجابي" بدلاً من تحميل المستخدمين عبء الاختيار للخروج.
على الرغم من أن محكمة مقرها كولونيا قد رفضت التحدي لخطط ميتا، إلا أن المحللين القانونيين يقترحون أن المعركة لم تنته بعد.
عرفت الهيئات التنظيمية في القارة الأوروبية بسياساتها الصارمة لحماية المستهلك، والتي تعرضت مؤخراً لانتقادات شديدة من إدارة دونالد ترامب.
حتى الآن، لا تزال ميتا في وضع قانوني سليم لبدء دمج البيانات العامة الأوروبية في نظم الذكاء الاصطناعي الخاصة بها.
أكاديمية كريبتوبوليتان: هل ترغب في زيادة أموالك في 2025؟ تعلم كيف تفعل ذلك مع DeFi في صفنا الإلكتروني القادم. احفظ مكانك