ستانفورد: 35٪ من المواقع الجديدة أنشأها الذكاء الاصطناعي - ForkLog: العملات المشفرة، الذكاء الاصطناعي، التفرد، المستقبل

ИИ AI искусственный интеллект artificial intelligence 2# ستانفورد: 35% من المواقع الجديدة أنشأها الذكاء الاصطناعي

بحلول منتصف عام 2025، تم إنشاء حوالي 35% من المواقع الجديدة كليًا أو جزئيًا بمساعدة الذكاء الاصطناعي. توصل الباحثون في جامعة ستانفورد إلى هذا الاستنتاج

قبل الإطلاق العام لـ ChatGPT من OpenAI في نوفمبر 2022، كانت النسبة عند الصفر. خلال عدة سنوات، ارتفعت حصة المحتوى المولد بواسطة الذكاء الاصطناعي إلى أكثر من ثلث المنشورات الأخيرة على الإنترنت

حصة المواقع التي تم توليدها بالكامل بواسطة الذكاء الاصطناعي (بالأحمر)، بالإضافة إلى تلك التي أنشئت باستخدام الشبكات العصبية (بالبنفسجي). المصدر: GitHub درس العلماء 33 شهرًا من نسخ أرشيفية للمواقع من خلال آلة Wayback باستخدام كاشف Pangram v3. الهدف كان معرفة كيف يعيد نمو نصوص الذكاء الاصطناعي تشكيل بنية شبكة الإنترنت العالمية

التغييرات الرئيسية

سجل الباحثون انخفاضًا في التنوع الدلالي. الصفحات المولدة بواسطة الشبكات العصبية أصبحت أكثر تشابهًا بنسبة 33% من النصوص التي كتبها البشر. المواقع المختلفة تتكرر أكثر وتعيد سرد نفس الأفكار بعبارات متطابقة تقريبًا.

وفقًا للمؤلفين، الأمر لا يقتصر على النسخ الجماعي باستخدام الذكاء الاصطناعي. المشكلة أعمق: يتضاءل تدريجيًا تنوع الصيغ والأفكار. نماذج اللغة الكبيرة (LLM) بطبيعتها تختار الإجابات الأكثر “متوسطية”، وبالتالي تعيد إنتاج خطاب نمطي

تغير أيضًا النغمة العاطفية للمنشورات. محتوى الذكاء الاصطناعي كان أكثر إيجابية بنسبة 107% من المحتوى البشري. في ستانفورد، ربطوا ذلك بالفعل بالميل الموثق لنماذج اللغة الكبيرة إلى التملق

خلال عملية التدريب، يقوم المطورون بتحسين الشبكات العصبية للحصول على ردود ممتعة وآمنة ومقبولة اجتماعيًا. ونتيجة لذلك، تخلق جزء كبير من المواقع الجديدة بيئة معلومات “نظيفة وودودة”. فيها أقل من التقييمات الحادة والصراعات، ولكن أيضًا أقل من النقاشات الحية بين البشر.

ما لم يتأكد

لم تثبت بعض المخاوف الشائعة إحصائيًا. لم يجد الباحثون ارتباطًا ذا دلالة إحصائية بين نمو محتوى الذكاء الاصطناعي وانخفاض الدقة الفعلية، أو زيادة الأخطاء الواضحة، أو توحيد الأسلوب في النصوص إلى قالب واحد.

على اليسار: الارتباط بين محتوى الذكاء الاصطناعي والفرضيات. على اليمين: نسبة البالغين الأمريكيين الذين يوافقون على كل فرضية. المصدر: GitHub. أشار العلماء بشكل منفصل إلى تأثير كان يُناقش حتى الآن نظريًا بشكل رئيسي، وهو انهيار النموذج (model collapse)

إذا تم تدريب الشبكات العصبية الجديدة على بيانات تحتوي على الكثير من محتوى الذكاء الاصطناعي، تبدأ النظام في هضم ردوده المتوسطة الخاصة به. هذا يقلل من التنوع، ويؤثر سلبًا على الجودة، ويهدد بأن تتعلم نماذج اللغة الكبيرة في المستقبل من “صدى اصطناعي” للسابقات بدلاً من البشر.

يخطط الخبراء، جنبًا إلى جنب مع أرشيف الإنترنت، لتحويل الدراسة إلى نظام مراقبة مستمرة لنسبة محتوى الذكاء الاصطناعي على الإنترنت

نذكر أنه في منتصف أبريل، أشاروا في جامعة ستانفورد إلى وتيرة متقدمة في تطوير الذكاء الاصطناعي. وأبلغ الباحثون أن الشبكات العصبية اقتربت من مستوى الإنسان في أداء المهام على الكمبيوتر.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت