حل الجرائم باستخدام الذكاء الاصطناعي: الشرطة الأمريكية توسع أدوات الذكاء الاصطناعي

أدوات حل الجرائم باستخدام الذكاء الاصطناعي تُعتمد بسرعة متزايدة من قبل وكالات الشرطة عبر الولايات المتحدة، مع نتائج يمكن أن تكون درامية لكن الخبراء والمدافعين عن الحريات المدنية يقولون إنها تأتي مع مخاطر جدية من نتائج زائفة، وتحقيقات خاطئة، وانتهاكات للعدالة الإجرائية.

ملخص

  • تتزايد استخدامات الشرطة الأمريكية للذكاء الاصطناعي لتسريع التحقيقات الجنائية والتعرف على الأنماط.
  • يحذر الخبراء من مخاطر تشمل نتائج زائفة تولدها الذكاء الاصطناعي قد تضر الأبرياء.
  • ذكرت صحيفة واشنطن بوست في 10 أبريل عن الاعتماد المتزايد على أدوات الجرائم المعتمدة على الذكاء الاصطناعي عبر إنفاذ القانون الأمريكي.

لم يعد استخدام الذكاء الاصطناعي من قبل إنفاذ القانون الأمريكي تجريبياً. وفقًا لصحيفة واشنطن بوست، تقوم وكالات الشرطة في جميع أنحاء البلاد بنشر أدوات الذكاء الاصطناعي لمساعدة المحققين على تحليل الأدلة، وتحديد الأنماط، وتوليد نتائج أسرع مما تسمح به الطرق التقليدية. لقد أثارت النتائج اهتمامًا، وكذلك المخاوف.

كيف تستخدم الشرطة الذكاء الاصطناعي وما الذي يمكن أن يفعله

يتم استخدام أدوات الذكاء الاصطناعي عبر إنفاذ القانون في الولايات المتحدة لوظائف تشمل التعرف على الوجوه، والتنبؤ بالجرائم، وتحليل الأدلة، ومطابقة الأنماط عبر قواعد البيانات. تتيح التكنولوجيا للمحققين معالجة المعلومات بمقياس وسرعة لا يمكن تحقيقها يدويًا، ويقول مسؤولو إنفاذ القانون إنها ساعدت في إغلاق قضايا قد تتوقف أو تتأخر.

أشارت وكالة الاستخبارات المركزية إلى خطوة موازية في المجتمع الاستخباراتي. كما أبلغ crypto.news اليوم، أكد نائب مدير وكالة الاستخبارات المركزية مايكل إليس أن الوكالة تخطط لدمج زملاء ذكاء اصطناعي عبر جميع منصات التحليل خلال عامين لمساعدة الضباط على تحديد اتجاهات الاستخبارات الأجنبية وإعداد التقارير، مع قول إليس إن وكالة الاستخبارات “لا يمكنها السماح لأهواء شركة واحدة بتقييد قدراتنا.”

ما يحذّر منه الخبراء

تركز المخاوف التي يثيرها الباحثون والمدافعون عن الحريات المدنية على ثلاثة مجالات رئيسية: دقة النتائج التي يولدها الذكاء الاصطناعي، وغياب الشفافية في كيفية وصول أنظمة الذكاء الاصطناعي إلى استنتاجاتها، وإمكانية وقوع أخطاء تضر بالأبرياء قبل أن يتم التعرف عليها وتصحيحها.

يمكن لأنظمة الذكاء الاصطناعي المدربة على بيانات متحيزة أن تنتج مخرجات متحيزة، وفي سياق إنفاذ القانون، يمكن أن يؤدي نتيجة زائفة من أداة ذكاء اصطناعي إلى مراقبة، أو استجواب، أو اعتقال قبل أن يتم اكتشاف الخطأ. كما أشار crypto.news، أظهر الذكاء الاصطناعي بالفعل قدرته على توسيع العمليات الخادعة في السياقات المالية والرقمية، مع تحذير شركة Elliptic لمعلومات blockchain من أن “الغالبية العظمى من التهديدات المتعلقة بالذكاء الاصطناعي في العملات المشفرة لا تزال في مهدها” مع حثّ اليقظة.

سؤال المساءلة

القلق الأعمق هو هيكلي: عندما يولد أداة ذكاء اصطناعي نتيجة تؤدي إلى تحقيق خاطئ، من يكون مسؤولاً؟ لم تقدم وكالات إنفاذ القانون بعد إجابات واضحة حول آليات الرقابة، أو التدقيق، أو التصحيح. تشير تقارير واشنطن بوست في 10 أبريل إلى أن اعتماد هذه الأدوات تسارع بشكل أسرع من الأطر المسؤولة عن مساءلتها.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت