لقد لاحظت شيئًا مثيرًا للاهتمام مؤخرًا في نظام بيئة الذكاء الاصطناعي. أخيرًا قررت عمالقة التكنولوجيا الصينيون الدخول بجدية في لعبة النماذج العالمية. أطلقت علي بابا وتينسنت مؤخرًا مقترحاتهما، هابي أوستر وHY-World 2.0، في محاولة لبناء أنظمة تفهم بشكل أفضل كيف يعمل العالم المادي.



المثير للاهتمام هو أن هذا ليس مجرد حركة من الصين. لقد أغلقت كل من World Labs وAMI Labs أيضًا جولات تمويل بمليارات الدولارات. من الواضح أن الأموال تتدفق نحو هذا المجال، لكن هنا ما يثير فضولي: لا يبدو أن أحدًا لديه فهم واضح لما هو النموذج العالمي بالضبط.

الصناعة منقسمة. يتحدث البعض عن إعادة بناء ثلاثية الأبعاد، وآخرون عن التفكير السببي، وبعضهم عن أشياء مختلفة تمامًا. بدون معايير تقنية واضحة، من المستحيل مقارنة أي حل يعمل بشكل أفضل. التقييمات غير متسقة، وكل مشروع يقيس تقدمه بقانونه الخاص.

بالإضافة إلى ذلك، لا تزال هناك مشكلات غير محلولة تعتبر خطيرة جدًا. نقص بيانات التدريب عالية الجودة لا يزال يمثل عنق زجاجة. الدقة الفيزيائية في المحاكاة لا تزال غير دقيقة. ثم هناك الموضوع الذي يقلق القليلون مناقشته: من المسؤول عندما تفشل هذه الأنظمة؟ المبادئ التوجيهية الأخلاقية تكاد تكون غير موجودة.

أفكر في تطبيقات مثل القيادة الذاتية أو العمليات الصناعية الحرجة. إذا أخطأ نموذج عالمي، يمكن أن تكون العواقب حقيقية. إنها نوعية التكنولوجيا التي تحتاج إلى أطر مسؤولية قوية قبل توسيعها. حتى الآن، يسرع عمالقة التكنولوجيا، لكن الصناعة بحاجة إلى التوقف قليلاً لوضع أسس أكثر صلابة.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت