لقد علمت شيئًا يبدو وكأنه خرج من 1984 لكنه حدث مؤخرًا في مدرسة في المملكة المتحدة. حرفيًا، قامت ذكاء اصطناعي بتشويه أورويل.



في مانشستر، قررت مدرسة ثانوية استخدام الذكاء الاصطناعي لمراجعة مكتبتها. قدمت الذكاء الاصطناعي قائمة بـ 193 كتابًا لإزالتها، مع أسباب لكل واحد منها. وتخيل أي كتاب كان على القائمة: 1984 لجورج أورويل، لأنه يحتوي على "مواضيع تعذيب، عنف وإكراه جنسي". المثير للسخرية هو أن 1984 يتحدث بالضبط عن حكومة تسيطر على كل شيء، وتعيد كتابة التاريخ وتقرر ما يمكن للمواطنين قراءته. وهنا كانت الذكاء الاصطناعي تفعل الشيء ذاته.

فكر أمين المكتبة في المدرسة أن الأمر سخيف ورفض تنفيذ الاقتراحات. لكن الإدارة لم توافق. اتهموه بإدخال كتب غير مناسبة ورفعوا الأمر للسلطات المحلية. كان الضغط كبيرًا لدرجة أنه طلب إجازة مرضية واستقال في النهاية. والأسوأ: خلصت السلطات إلى أنه انتهك فعلاً إجراءات حماية الأطفال. من قاوموا الذكاء الاصطناعي فقدوا وظائفهم. ومن قبلوا به دون تساؤل، لم يتعرضوا لعواقب.

بعد ذلك، ظهرت أدلة على أن المدرسة كانت تعرف تمامًا أن كل ذلك من الذكاء الاصطناعي. في وثائق داخلية كتبوا أنه رغم أن التصنيفات أُنشئت بواسطة الذكاء الاصطناعي، "نعتقد أن هذا التصنيف تقريبيًا دقيق". تقريبيًا. مؤسسة أوكلت قرارًا أساسيًا لخوارزمية لا تفهمها حتى، ووافق عليها مدير دون مراجعة شيء.

نفس الأسبوع حدث شيء مختلف تمامًا على ويكيبيديا. بينما كانت مدرسة تسمح للذكاء الاصطناعي بتحديد ما يمكن لطلابها قراءته، أخذت الموسوعة الإلكترونية الأكبر في العالم قرارًا معاكسًا: حظر أن يكتب الذكاء الاصطناعي أو يعيد كتابة المحتوى. كانت التصويتات 44 مؤيدًا، 2 معارضًا. السبب كان حساب ذكاء اصطناعي يُدعى TomWikiAssist كان ينشئ مقالات تلقائيًا.

المشكلة رياضية: يمكن للذكاء الاصطناعي كتابة مقال خلال ثوانٍ، لكن متطوع بشري يستغرق ساعات للتحقق من الحقائق، المصادر، والصياغة. ويكيبيديا لا تملك عدد كافٍ من المحررين لمراجعة كل ما قد تنتجه الذكاء الاصطناعي. لكن هناك شيء أعمق: ويكيبيديا واحدة من المصادر الرئيسية لبيانات تدريب نماذج الذكاء الاصطناعي. يتعلم الذكاء الاصطناعي من ويكيبيديا، ثم يكتب مقالات جديدة لها، والتي بدورها تدرب الجيل القادم من الذكاء الاصطناعي. إذا تلوثت تلك البيانات، يُخلق دورة تتضخم فيها التلوث. البيانات تسمم الذكاء الاصطناعي، والذكاء الاصطناعي يلوث البيانات.

نفس الأسبوع، تراجعت أيضًا شركة OpenAI. ألغت بشكل مؤقت "وضع البالغين" في ChatGPT، وهو وظيفة أعلن عنها سام ألتمان شخصيًا قبل أشهر. صوتت لجنة الصحة الداخلية بالإجماع ضدها. كانت مخاوفهم واضحة: المستخدمون سيطورون تعلقًا عاطفيًا غير صحي مع الذكاء الاصطناعي، والأطفال سيجدون طرقًا لتجاوز التحقق من العمر. قال أحدهم بشكل مباشر: بدون تحسينات، قد يتحول الأمر إلى "مدرب انتحار جنسي". نظام التحقق من العمر لديه أكثر من 10% خطأ. مع 800 مليون مستخدم نشط أسبوعيًا، هذا يعني عشرات الملايين مصنفين بشكل خاطئ.

لم يكن الأمر فقط ذلك. كما أزالوا Sora، أداة الفيديو بالذكاء الاصطناعي، ووظيفة الدفع الفوري في ChatGPT. قال ألتمان إنهم يركزون على النشاط الرئيسي ويزيلون "المهام الثانوية". لكن شركة OpenAI تستعد للطرح العام. شركة تسعى للتداول في البورصة وتزيل بشكل مكثف وظائف مثيرة للجدل ربما لا تكون صادقة تمامًا مع نفسها.

انظر، قبل خمسة أشهر، قال ألتمان إنه يجب معاملة المستخدمين كالبالغين. بعد خمسة أشهر، اكتشف أن شركته نفسها لا تعرف ما يمكن وما لا يمكن للذكاء الاصطناعي فعله. حتى من يصنعون الذكاء الاصطناعي لا يملكون هذا الجواب.

عند النظر إلى هذه الأحداث الثلاثة معًا، يصبح المشكلة واضحة: السرعة التي ينتج بها الذكاء الاصطناعي المحتوى لم تعد تتوافق مع سرعة مراجعة البشر له. مدير مانشستر لم يثق في الذكاء الاصطناعي؛ ببساطة لم يرغب في قضاء الوقت الذي كان ليستغرقه أن يقرأ أمين مكتبة 193 كتابًا. إنها مشكلة اقتصادية. تكلفة الإنتاج تقريبًا صفر. جميع تكاليف المراجعة يتحملها البشر.

لذا، ردت كل مؤسسة بأقصى سرعة ممكنة: ويكيبيديا حظرت مباشرة، وOpenAI أزالت خطوط منتجات. لم تكن أي منها حلاً مدروسًا؛ كانت إجراءات طارئة لسد الثغرات. وهذا يتجه نحو الاعتياد.

يتحدث الذكاء الاصطناعي كل بضعة أشهر. لا يوجد إطار دولي موحد حول ما يمكن أن يلمسه. كل مؤسسة ترسم خطوطها الداخلية الخاصة، وهي متناقضة، بدون تنسيق. وفي الوقت نفسه، الفجوة تتسع فقط. الذكاء الاصطناعي يسرع أكثر. عدد الموظفين للمراجعة لا يزيد. وفي مرحلة ما، ستنفجر الأمور بشكل أسوأ بكثير من مجرد رقابة أورويل. وعندما يحدث ذلك، من المحتمل أن يكون الأوان قد فات لوضع خط.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت