الموظفون يستخدمون الذكاء الاصطناعي بطرق ضارة — وقد تكون الشركات غير مدركة لذلك

لقد ضرب الذكاء الاصطناعي سوق العمل كزلزال، ومع تزايد ذلك، تتعامل الشركات بشكل متزايد مع التداعيات اللاحقة.

إحدى المشكلات الناشئة هي نمو ما يُسمى بـ “الذكاء الاصطناعي الظلي”، حيث يستخدم العمال الذكاء الاصطناعي بطرق لا ينبغي لهم استخدامها، سواء عن غير قصد أو غير ذلك.

وفقًا لدراسة حديثة أجرتها جامعة ملبورن وKPMG، فإن 47% من المهنيين الذين شملهم الاستطلاع قد استخدموا الذكاء الاصطناعي بشكل غير مناسب في العمل، و63% قالوا إنهم شاهدوا زملاء لهم يستخدمون الذكاء الاصطناعي بشكل غير مناسب. تتنوع تلك الحالات، من استخدام الذكاء الاصطناعي للمحادثة على اختبارات تقييم أداء الشركة الداخلية إلى إدخال بيانات حساسة للشركة في أدوات ذكاء اصطناعي تابعة لجهات خارجية.

ويشير التقرير إلى أن ذلك يعرض الشركات لمخاطر هائلة.

“هذا الاستخدام غير المرئي أو الظلي للذكاء الاصطناعي لا يزيد فقط من المخاطر – بل يعيق أيضًا بشكل كبير قدرة المنظمة على الكشف عن المخاطر وإدارتها والتخفيف من حدتها”، أشار التقرير.

الشركات تواجه وهم الكفاءة المدفوع بالذكاء الاصطناعي

يقول خبراء مكان العمل إن التحول الحقيقي مع الذكاء الاصطناعي ليس أن الموظفين أصبحوا غير أمناء فجأة. إن التحول هو أن الذكاء الاصطناعي يأخذ طرقًا مختصرة بسرعة وسهولة وبدون أن يُرى.

“قبل الذكاء الاصطناعي، كان إخفاء العمل السيئ أصعب”، قالت زهرة تيمساح، قائدة حوكمة الذكاء الاصطناعي والرئيسة التنفيذية لمنصة i-GENTIC AI، وهي منصة امتثال للذكاء الاصطناعي الوكيل. “الآن يمكن للموظف أن يُنتج تقريرًا مصقولًا في دقائق، ويفترض المديرون الكفاءة. هذا يخلق وهم الإنتاجية.”

على سبيل المثال، تشير تيمساح إلى موظف يستخدم الذكاء الاصطناعي لإجراء التحليل ويقدمه بثقة، لكنه لا يستطيع الدفاع عنه عند السؤال. “تتخذ الشركة قرارات بناءً على عمل لا يفهمه أحد حقًا”، أضافت تيمساح. “أكبر تهديد ليس الغش في الاختبارات. بل أن الشركات تفقد بشكل سري المعلومات الداخلية بينما تعتقد أن فرقها تفكر بشكل مستقل.”

يقول مسؤولون تنفيذيون بارزون آخرون إن البيانات تشير إلى أن الشركات ترى الآن فقط قمة جبل الجليد في استخدام الذكاء الاصطناعي الظلي. فكر في الصورة الأوسع من دراسة ملبورن:

— 44% من العاملين في الولايات المتحدة يستخدمون أدوات الذكاء الاصطناعي بدون إذن مناسب،

— 46% قاموا بتحميل معلومات حساسة للشركة وحقوق ملكيتها الفكرية إلى منصات ذكاء اصطناعي عامة، و64% يعترفون بأنهم يبذلون جهدًا أقل في عملهم لأنهم يعتمدون على الذكاء الاصطناعي.

— أكثر من نصفهم، 57%، يرتكبون أخطاء في عملهم بسبب استخدام غير مراقب للذكاء الاصطناعي، و53% يخفيون استخدامهم للذكاء الاصطناعي تمامًا، ويقدمون محتوى مولد بواسطة الذكاء الاصطناعي على أنه عملهم الخاص.

“ليس فقط أن الناس ينسبون عمل الذكاء الاصطناعي إلى أنفسهم؛ بل يلوثون أيضًا المصدر الداخلي للشركة بالاعتماد على مخلفات الذكاء الاصطناعي”، قال نيك ميسنر، المدير التنفيذي لشركة Cybrary، منصة تطوير مهني في مجال الأمن السيبراني في أتلانتا. “بينما يسرع الذكاء الاصطناعي من سرعة البرمجة، فإنه يُدخل المزيد من الديون والثغرات الأمنية في المنظمة.”

يشير ميسنر إلى أن هذا ليس اتجاهًا معزولًا؛ بل هو فشل منهجي في جاهزية المؤسسات.

“نحن نرى اعتماد الذكاء الاصطناعي يتجاوز بشكل كبير الحوكمة”، قال. “تخبرنا تقرير حالة مكان العمل العالمي من جالوب أن 79% من القوة العاملة العالمية تتراوح بين ‘القيام بالحد الأدنى’ و’الانفصال النشط’.”

وبالتالي، عندما يُعطى العمال غير المهتمين أداة قوية بدون إرشادات ذات معنى، فإنهم لن يستخدموها ليصبحوا أكثر إنتاجية. “سيستخدمونها لأداء نفس العمل بمجهود أقل أو، والأسوأ، لقطع الزوايا بطريقة تخلق مخاطر تنظيمية حقيقية”، أشار.

لا يقتصر التهديد على الغش في الاختبارات، على الرغم من أن حالة من KPMG أستراليا أُبلغ عنها هذا الأسبوع، حيث تم القبض على 28 موظفًا يستخدمون الذكاء الاصطناعي للغش في الامتحانات الداخلية، بما في ذلك شريك غُرم بمبلغ 10,000 دولار لالغش في اختبار أخلاقيات الذكاء الاصطناعي.

“هذا المثال يوضح بشكل مثالي السخرية”، قال ميسنر. “التهديد الأكبر هو أن المؤسسات تطير عمياء. إذا كان ما يقرب من نصف قوتك العاملة يستخدمون الذكاء الاصطناعي بشكل غير مناسب وأنت لا تعرف ذلك، فإن تعرضك للمخاطر كبير، من تسرب البيانات إلى انتهاكات الامتثال إلى تآكل المهارات التي يحتاجها موظفوك فعليًا.”

إخراج استخدام الذكاء الاصطناعي الخبيث من الظل

يجب على الإدارة العليا أن تتقدم بمقترحات وسياسات وعقوبات لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي في شركاتهم. يجب أن تكون هذه الاستراتيجيات على رأس أولوياتهم.

التعلم من الماضي

هناك حجة جيدة تُقال بأن أرقام ملبورن/KPMG ليست فريدة بالنسبة للذكاء الاصطناعي.

“رأينا أنماطًا مماثلة عندما دخل الإنترنت ومحركات البحث إلى مكان العمل لأول مرة”، قال جو شابّي، الشريك المؤسس لشركة Solsten، وهي شركة تفاعلية تعتمد على الذكاء الاصطناعي في مينيسوتا. “كلما ظهر أداة قوية جديدة، كان سوء الاستخدام حتميًا؛ ذلك في طبيعة الإنسان.”

مع تزايد اعتماد الذكاء الاصطناعي، قال شابّي إن الإدارة ستشهد على الأرجح المزيد من التجارب والسلوكيات الرمادية، لكن مع تطور جميع التقنيات، تتطور الحوكمة والضوابط. “شركات مثل Anthropic تتخذ بالفعل نهجًا أكثر تركيزًا على المؤسسات، وتبني قواعد وقيود لتقليل المخاطر مع نضوج التقنية”، أشار. “إذا كنت شركة وراقبت سلوكًا غير لائق على أي أداة، يجب أن يكون القلق منصبًا على الثقافة وكيفية تطبيق السياسات والإجراءات.”

الاعتماد على الإشراف البشري

للحفاظ على مراقبة استخدام الذكاء الاصطناعي في مكان العمل، يجب على الإدارة تكليف فريق تحليل الذكاء الاصطناعي بمراجعة وصول الشركة إلى البيانات والأذونات لأي نوع من البيانات التي تعتبر حاسمة لمستقبل العمل.

“بعد ذلك، مجموعات البيانات الاصطناعية ليست جديدة، وهي وسيلة رائعة لنمذجة النتائج مع الاستفادة من بياناتك”، قال. “بالإضافة إلى ذلك، دائمًا ما أضمن وجود إنسان في الحلقة قبل أن يُطلق أي شيء. العديد من الشركات لا تزال تجد أرقام التقارير التي تنتجها الذكاء الاصطناعي غير صحيحة. سواء كان ذلك لضمان أن الرسائل لا تزال تتماشى مع العلامة التجارية أو مناسبة، من المهم إبقاء إنسان في الحلقة.”

وضوح تام في قواعد استخدام الذكاء الاصطناعي

يجب على الشركات أيضًا توفير أدوات ذكاء اصطناعي داخلية معتمدة وتحديد قاعدة واضحة واحدة. لا تضع أبدًا معلومات سرية أو منظمة في أنظمة ذكاء اصطناعي عامة.

“يجب عليهم أيضًا مراقبة تدفق البيانات الحساسة، خاصة النسخ واللصق في أدوات الذكاء الاصطناعي، وهو الآن نقطة عمياء رئيسية تتجاهلها معظم الشركات”، قالت تيمساح. “الأهم من ذلك، أن على الشركات تغيير طريقة تقييم الموظفين.”

كما تشجع تيمساح قادة الشركات على تجنب مكافأة المخرجات المصقولة فقط. “اطلب من الموظفين شرح تفكيرهم وإظهار فهمهم”، قالت. “يمكن للذكاء الاصطناعي أن يُنتج إجابات، لكنه لا يمكن أن يحل محل الملكية أو المساءلة.”

كانت السياسة الأولى التي نفذها فريق تيمساح في i-GENTIC بسيطة وواضحة: يمكن للموظفين استخدام أدوات الذكاء الاصطناعي المعتمدة، لكن لا يُسمح لهم بإدخال معلومات سرية أو عملاء أو مالية أو ملكية خاصة في أنظمة الذكاء الاصطناعي العامة.

“ركزنا على الوضوح، وليس على القيود”، أضافت. “هذا خلق ثقة لأن الموظف كان يعلم أن استخدام الذكاء الاصطناعي مسموح، ولكن ضمن حدود واضحة. كما أنه عزز المساءلة، لأن الجميع فهم ما هو آمن وما هو غير ذلك.”

يجب أن تركز تدريبات الشركة على أمثلة عملية، وليس على سياسات غامضة لا يقرأها أحد. يحتاج الموظفون إلى فهم واضح لما هو آمن وما هو غير آمن.

“استخدام الذكاء الاصطناعي لإعادة كتابة بريد إلكتروني عام مقبول”، قالت تيمساح. “رفع عقود العملاء، البيانات المالية، أو المعلومات الملكية إلى أداة ذكاء اصطناعي عامة غير مقبول. استخدام الذكاء الاصطناعي لتوليد أفكار مقبول. تقديم تحليل مولد بواسطة الذكاء الاصطناعي لا تفهمه على أنه عملك الخاص غير مقبول.”

متى يلزم الاستعانة بجهة خارجية للتنفيذ

يصبح سوء استخدام الموظفين للذكاء الاصطناعي قضية قانونية عندما يكون هناك نية وضرر.

“يشمل ذلك تسريب البيانات السرية، سرقة حقوق الملكية الفكرية، التلاعب بالمعلومات المالية، أو الاحتيال بمساعدة الذكاء الاصطناعي”، قالت تيمساح. “عندها، قد تتدخل الجهات التحقيقية أو الجهات التنظيمية أو الشرطة.”

كما يجب أن يعلم صانعو القرار في الشركات أن معظم سوء الاستخدام يبدأ كوسيلة للراحة، وليس بنية خبيثة، ولكن بمجرد أن يسبب ضررًا حقيقيًا، أو تعرضًا ماليًا، أو خداعًا، فإنه يتجاوز الحدود القانونية. “الفرق الرئيسي هو ما إذا كان سوء الاستخدام أدى إلى تعرض، خسارة، أو إخفاء متعمد”، أضافت تيمساح.

أخيرًا، التركيز على التدريب

يقول الخبراء إنه من المهم أن تتعامل المؤسسات مع استخدام الذكاء الاصطناعي مثل أي سلوك عالي المخاطر وتثقيف الموظفين حول كيفية استخدامه بأمان.

بالإضافة إلى ذلك، عند تدريب الموظفين على استخدام الذكاء الاصطناعي، يجب أن يكونوا على وعي بأن استخدامه لا يعفيهم من المسؤولية.

“لا يزال الموظفون مسؤولين عن ضمان أن المعلومات التي يرفعونها على منصات الذكاء الاصطناعي دقيقة ولا تنتهك أي قوانين”، قالت كيلي سزاميت، شريكة في شركة Kingsley Szamet للمحاماة في مجال التوظيف. “كما يجب أن يكونوا على علم بأن رفع معلومات سرية وملكية خاصة على منصات الذكاء الاصطناعي قد يؤدي إلى تعرض تلك المعلومات بشكل دائم على المنصة.”

من منظور التوظيف، الاتساق هو المفتاح. إذا تم فصل موظف بسبب سوء استخدام الذكاء الاصطناعي ولم يُفصل آخر، فإن ذلك يخلق قضايا مسؤولية تتعلق بالتمييز والانتقام. “كلما كانت السياسات والتدريب أكثر قوة، قل خطر التقاضي”، قالت سزاميت.

القلق الأكبر ليس أن الموظفين سيستخدمون الذكاء الاصطناعي. بل إنهم سيفعلون. “القلق هو أن تتعامل الشركات مع الأمر قبل أن يصبح مشكلة”، أضافت سزاميت.

📬 الاشتراك في النشرة اليومية

موجزنا المجاني والسريع والممتع عن الاقتصاد العالمي، يُرسل كل صباح من أيام الأسبوع.

سجّلني

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.49Kعدد الحائزين:1
    0.13%
  • القيمة السوقية:$2.47Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:2
    0.00%
  • القيمة السوقية:$2.49Kعدد الحائزين:2
    0.00%
  • تثبيت