يُقرّ ألتمان تقريبًا بأنه تم تدريب نموذج يعتمد على بيانات الذكاء الاصطناعي الخالصة، وقال أيضًا إنه من الناحية الرياضية لم تعد هناك حاجة لبيانات البشر

وفقًا لمراقبة Beating، تحدث ألتمن في بودكاست مع المدير التنفيذي نيكولاس تومسون من مجلة ذا أتلانتك عن البيانات الاصطناعية. قال تومسون إن المحتوى على الإنترنت مليء الآن بالمحتوى الذي كتبه الذكاء الاصطناعي، والناس يتعلمون حتى أساليب الكتابة من الذكاء الاصطناعي، وفي المستقبل من المستحيل أن لا تتأثر النماذج بالبيانات التي يولدها الذكاء الاصطناعي. قال: «GPT-4 هو النموذج الأخير الذي لم يستخدم بشكل كبير بيانات الذكاء الاصطناعي»، وأومأ ألتمن بالموافقة.

سأل تومسون مباشرة: هل تم تدريب نموذج باستخدام بيانات اصطناعية بالكامل (باستخدام مخرجات الذكاء الاصطناعي لتدريب الجيل التالي من الذكاء الاصطناعي)؟ توقف ألتمن للحظة وقال: «لست متأكدًا مما إذا كان ينبغي أن أقول ذلك». هذه العبارة تعادل اعترافًا ضمنيًا. ثم قال إن جوهر النموذج هو تعلم الاستنتاج، وهذه القدرة يمكن تحقيقها تمامًا باستخدام البيانات الاصطناعية. ضرب مثالاً رياضيًا: هل يمكن لنموذج لم يرَ بيانات بشرية من قبل أن يحسب بشكل أفضل من الإنسان؟ «أعتقد أن ذلك ممكن». لكن، هل يمكن لنموذج لم يتعرض لثقافة الإنسان أن يفهم قيم الإنسان؟ «ربما لا».

لطالما كانت هناك مقولة أن البيانات الاصطناعية تعاني من «مرض جنون البقر»: هل ستتدهور المعلومات وتتدهور عبر الأجيال إذا استمر الذكاء الاصطناعي في تناول مخرجاته الخاصة مرارًا وتكرارًا؟ وفقًا لألتمن، تعليم الذكاء الاصطناعي الحساب لا يحتاج إلى البشر، ولكن تعليم الذكاء الاصطناعي فهم الإنسان يحتاج إلى البشر.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت