لا تعبث بمحفظتي: أبحاث أبل تظهر أن المستخدمين يكرهون الذكاء الاصطناعي الذي يتصرف بذكاء زائد

robot
إنشاء الملخص قيد التقدم

موقع IT之家 13 فبراير، أفاد أن فريق أبحاث التعلم الآلي في شركة أبل أصدر في 7 فبراير ورقة بحثية بعنوان “رسم مساحة تصميم تجربة المستخدم لوكلاء استخدام الحاسوب”، والتي تركز على الكشف عن التوقعات الحقيقية للمستخدمين وتفضيلات التفاعل مع الذكاء الاصطناعي.

وأشار الباحثون إلى أنه على الرغم من استثمار السوق بشكل كبير في تطوير وكلاء الذكاء الاصطناعي، إلا أن الاستكشاف فيما يتعلق بشكل الواجهة ومنطق التفاعل لا يزال غير كافٍ. ولهذا، قام الفريق بتحليل المنتجات الحالية وإجراء اختبارات ميدانية مع المستخدمين، في محاولة لتوضيح معايير التصميم في هذا المجال الناشئ.

في المرحلة الأولى من الدراسة، استشهد موقع IT之家 بمقالة تشرح أن الفريق قام بتحليل متعمق ل9 من وكلاء الذكاء الاصطناعي الشائعين على سطح المكتب والجوال، بما في ذلك Claude Computer Use وOpenAI Operator وAutoGLM.

وباعتماد استشارة 8 من المهنيين ذوي الخبرة، قام الباحثون ببناء نظام تصنيف يتضمن أربعة أبعاد رئيسية: “أوامر المستخدم”، “قابلية تفسير النشاط”، “سيطرة المستخدم”، و"النموذج العقلي". ويغطي هذا النظام كامل عملية إصدار الأوامر من قبل المستخدم، وعرض خطة التشغيل من قبل الذكاء الاصطناعي، والإبلاغ عن الأخطاء، ونقل السيطرة.

في المرحلة الثانية من الدراسة، استخدم الفريق طريقة “ساحر أوز” الكلاسيكية. حيث تم استقطاب 20 مستخدمًا ذو خبرة في استخدام الذكاء الاصطناعي، وطُلب منهم إتمام مهام حجز الإجازات أو التسوق عبر الإنترنت من خلال واجهة الدردشة.

ولاستبعاد تأثير الأعطال التقنية، تم محاكاة عمليات الذكاء الاصطناعي بواسطة أشخاص حقيقيين (بما في ذلك ارتكاب أخطاء عمدًا أو الوقوع في حلقات مفرغة)، مع عدم علم المستخدمين أن “الذكاء الاصطناعي” خلف الشاشة هو في الواقع باحث في غرفة مجاورة.

وأظهرت النتائج أن المستخدمين لديهم حاجة دقيقة لـ"الشفافية": فهم يرغبون بمعرفة توجهات الذكاء الاصطناعي، لكنهم يرفضون إدارة كل خطوة بشكل دقيق، وإلا فإنهم يفقدون معنى استخدام الوكيل.

وتتغير هذه الحاجة حسب السيناريو: ففي المهام الاستكشافية أو غير المألوفة، يتوق المستخدمون لرؤية مزيد من الخطوات والتفسيرات الوسيطة؛ أما في السيناريوهات عالية المخاطر (مثل الدفع أو تعديل معلومات الحساب)، يطالب المستخدمون بحق التأكيد المطلق.

وفي الختام، أكد البحث أن الثقة هي أساس التفاعل بين الإنسان والآلة، لكنها هشة جدًا. فعندما يتخذ الذكاء الاصطناعي قرارات غامضة دون استشارة، أو ينحرف عن الخطة الأصلية دون إبلاغ، فإن ثقة المستخدم تتآكل بسرعة.

وبعد مواجهة حالات عدم اليقين، لا يرغب المستخدمون في أن يختار الذكاء الاصطناعي بشكل عشوائي من أجل “الأتمتة”، بل يفضلون توقفه وطلب التوضيح، خاصة عندما تكون الخيارات قد تؤدي إلى أخطاء في الشراء أو خسائر فعلية.

موقع IT之家 يرفق الرابط المرجعي

الموقع الرسمي لأبل: Mapping the Design Space of User Experience for Computer Use Agents
Arxiv: Mapping the Design Space of User Experience for Computer Use Agents

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.47Kعدد الحائزين:2
    0.19%
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:0
    0.00%
  • تثبيت