نظرًا لأن AI يمكن أن يسبب الهلوسة ، ويثير معلومات غير صحيحة أو مشوهة ، يُشجع المستخدمون على التحقق من المراجع. يبدو أن هذا يمكن أن يؤدي أيضًا إلى مشاكل. وفقًا لتقرير Futurism يوم الاثنين ، يمكن لـ ChatGPT توفير روابط لصفحات ويب تحتوي على برامج ضارة.
تم التوصل إلى هذه النتيجة خلال اختبار معرفة ChatGPT بالأحداث الجارية. عندما سئل عن ويليام جوينز ، الحاصل على النجمة البرونزية وأول عضو أسود في Navy SEAL المتوفى مؤخرا ، ذكرت Futurism أن رد ChatGPT تضمن رابطا إلى "موقع ويب للتصيد الاحتيالي".
على وجه التحديد، يقترح ChatGPT-4o الوصول إلى موقع ويب بعنوان "County Local News" للحصول على مزيد من المعلومات حول جوينز. ومع ذلك، ينشئ الموقع الويب على الفور تحذيرات زائفة يتم النقر عليها لنشر البرامج الضارة على أجهزة الكمبيوتر الخاصة بالمستخدمين. يتم اقتراح موقع ويب مماثل أيضًا لمواضيع أخرى.
عند محاولة اختبار جوينس باستخدام التذكير الذي قدمته فوتوريزم ، لم تتضمن الاستجابة من ChatGPT أي روابط إلى أي موقع ويب.
قام مطورو الذكاء الاصطناعي بالاستثمار بشكل كبير في مكافحة الوهم واستخدام الروبوت الدردشة لأغراض سيئة، ولكن توفير روابط إلى مواقع ويب أخرى سيكون له مخاطر إضافية. يمكن أن يكون الموقع الذي يتم ربطه موقعًا قانونيًا وآمنًا عندما تقوم شركات الذكاء الاصطناعي بجمع البيانات ، ولكن بعد ذلك يمكن أن يتم تلويثه أو اختراقه من قبل الاحتياليين.
وفقًا لجاكوب كالفو ، مؤسس والرئيس التنفيذي لمزود بيانات وخصوصية الإنترنت Live Proxy ، يجب فحص الروابط المرسلة باستمرار.
قال كالفو:
"يمكن للمطورين ضمان تطبيق آلية تصفية مناسبة لمنع الروبوتات الدردشة من تقديم روابط إلى مواقع الويب الخبيثة. يمكن تعزيز هذا بخوارزميات معالجة اللغة الطبيعية (NLP) المتقدمة التي يمكن تدريب الروبوت الدردشة على تحديد عناوين URL استنادًا إلى نماذج URL خبيثة معروفة مسبقًا. علاوة على ذلك، يجب عدم نسيان الاحتفاظ بقائمة سوداء لمواقع الويب، مع تحديث مستمر ومراقبة التهديدات الجديدة"
يوصي كالفو أيضًا بالتحقق من روابط المواقع الإلكترونية وسمعة النطاق وتتبع الوقت الفعلي لتحديد وحل أي نشاط مشبوه بسرعة. وفقًا لكالفو،
هذا يجلب التعاون المستمر مع خبراء أمن الشبكات للتغلب على التهديدات الجديدة عند ظهورها. فقط من خلال الذكاء الاصطناعي وقدرة الإنسان، يمكن للمطورين الجدد إنشاء بيئة أكثر أمانًا بكثير للمستخدمين.
يؤكد كالفو أيضًا على ضرورة إدارة بيانات تدريب نماذج الذكاء الاصطناعي بعناية لتجنب استيراد وتوفير محتوى ضار، بالإضافة إلى الحاجة إلى فحص وتحديثات منتظمة للحفاظ على سلامة البيانات.
عند الاتصال بـ تقرير ، قام OpenAI بالرد بشكل مماثل لـ Futurism ، مؤكدًا أنهم يعملون مع شركاء نشر الأخبار لدمج "قدرات الحوار مع آخر المستجدات في الأخبار الخاصة بهم ، وضمان التوزيع المناسب" - ولكن هذه الميزة لا تزال غير متاحة.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
يمكن لـ ChatGPT أن يوجه المستخدمين إلى مواقع ويب ضارة
نظرًا لأن AI يمكن أن يسبب الهلوسة ، ويثير معلومات غير صحيحة أو مشوهة ، يُشجع المستخدمون على التحقق من المراجع. يبدو أن هذا يمكن أن يؤدي أيضًا إلى مشاكل. وفقًا لتقرير Futurism يوم الاثنين ، يمكن لـ ChatGPT توفير روابط لصفحات ويب تحتوي على برامج ضارة.
تم التوصل إلى هذه النتيجة خلال اختبار معرفة ChatGPT بالأحداث الجارية. عندما سئل عن ويليام جوينز ، الحاصل على النجمة البرونزية وأول عضو أسود في Navy SEAL المتوفى مؤخرا ، ذكرت Futurism أن رد ChatGPT تضمن رابطا إلى "موقع ويب للتصيد الاحتيالي".
على وجه التحديد، يقترح ChatGPT-4o الوصول إلى موقع ويب بعنوان "County Local News" للحصول على مزيد من المعلومات حول جوينز. ومع ذلك، ينشئ الموقع الويب على الفور تحذيرات زائفة يتم النقر عليها لنشر البرامج الضارة على أجهزة الكمبيوتر الخاصة بالمستخدمين. يتم اقتراح موقع ويب مماثل أيضًا لمواضيع أخرى.
عند محاولة اختبار جوينس باستخدام التذكير الذي قدمته فوتوريزم ، لم تتضمن الاستجابة من ChatGPT أي روابط إلى أي موقع ويب.
قام مطورو الذكاء الاصطناعي بالاستثمار بشكل كبير في مكافحة الوهم واستخدام الروبوت الدردشة لأغراض سيئة، ولكن توفير روابط إلى مواقع ويب أخرى سيكون له مخاطر إضافية. يمكن أن يكون الموقع الذي يتم ربطه موقعًا قانونيًا وآمنًا عندما تقوم شركات الذكاء الاصطناعي بجمع البيانات ، ولكن بعد ذلك يمكن أن يتم تلويثه أو اختراقه من قبل الاحتياليين.
وفقًا لجاكوب كالفو ، مؤسس والرئيس التنفيذي لمزود بيانات وخصوصية الإنترنت Live Proxy ، يجب فحص الروابط المرسلة باستمرار.
قال كالفو:
"يمكن للمطورين ضمان تطبيق آلية تصفية مناسبة لمنع الروبوتات الدردشة من تقديم روابط إلى مواقع الويب الخبيثة. يمكن تعزيز هذا بخوارزميات معالجة اللغة الطبيعية (NLP) المتقدمة التي يمكن تدريب الروبوت الدردشة على تحديد عناوين URL استنادًا إلى نماذج URL خبيثة معروفة مسبقًا. علاوة على ذلك، يجب عدم نسيان الاحتفاظ بقائمة سوداء لمواقع الويب، مع تحديث مستمر ومراقبة التهديدات الجديدة"
يوصي كالفو أيضًا بالتحقق من روابط المواقع الإلكترونية وسمعة النطاق وتتبع الوقت الفعلي لتحديد وحل أي نشاط مشبوه بسرعة. وفقًا لكالفو،
هذا يجلب التعاون المستمر مع خبراء أمن الشبكات للتغلب على التهديدات الجديدة عند ظهورها. فقط من خلال الذكاء الاصطناعي وقدرة الإنسان، يمكن للمطورين الجدد إنشاء بيئة أكثر أمانًا بكثير للمستخدمين.
يؤكد كالفو أيضًا على ضرورة إدارة بيانات تدريب نماذج الذكاء الاصطناعي بعناية لتجنب استيراد وتوفير محتوى ضار، بالإضافة إلى الحاجة إلى فحص وتحديثات منتظمة للحفاظ على سلامة البيانات.
عند الاتصال بـ تقرير ، قام OpenAI بالرد بشكل مماثل لـ Futurism ، مؤكدًا أنهم يعملون مع شركاء نشر الأخبار لدمج "قدرات الحوار مع آخر المستجدات في الأخبار الخاصة بهم ، وضمان التوزيع المناسب" - ولكن هذه الميزة لا تزال غير متاحة.