يستخدم الموظفون الذكاء الاصطناعي بطرق ضارة. قد تكون الشركات غير مدركة لذلك

يستخدم الموظفون الذكاء الاصطناعي بطرق ضارة. قد تكون الشركات في غفلة

Quartz · وكالة China News Service عبر Getty Images

Brian O’Connell

الخميس، 26 فبراير 2026 الساعة 7:00 مساءً بتوقيت GMT+9، مدة القراءة 7 دقائق

لقد ضرب الذكاء الاصطناعي سوق العمل مثل الزلزال، وباتت الشركات على نحو متزايد تتعامل مع الارتدادات بعده.

تتمثل إحدى القضايا المتنامية في نمو ما يُسمى بـ"الذكاء الاصطناعي الظل"، حيث يستخدم العاملون الذكاء الاصطناعي بطرق لا ينبغي لهم استخدامها فيها، سواء كان ذلك عن غير قصد أو لا.

ووفقًا لدراسة حديثة أجرتها جامعة ملبورن وKPMG، فقد استخدم 47% من المختصين في مسارهم المهني الذكاء الاصطناعي بشكل غير مناسب في العمل، ويقول 63% إنهم شاهدوا موظفين آخرين يستخدمون الذكاء الاصطناعي بشكل غير مناسب. وتتباين هذه الحالات، بدءًا من استخدام الذكاء الاصطناعي للمحادثة في اختبارات تقييم الأداء الداخلية للشركة إلى إدخال بيانات الشركة الحساسة في أدوات ذكاء اصطناعي تابعة لطرف ثالث.

وأشارت الدراسة إلى أن القيام بذلك يطرح مخاطر كبيرة على الشركات.

“استخدام الذكاء الاصطناعي غير المرئي أو ما يُسمى بالذكاء الاصطناعي الظل لا يؤدي فقط إلى تفاقم المخاطر – بل يعوق بشدة قدرة المؤسسة على اكتشاف المخاطر وإدارتها والتخفيف منها”، كما ورد في التقرير.

الشركات تواجه وهم الكفاءة المدفوع بالذكاء الاصطناعي

يقول خبراء مكان العمل إن التحول الحقيقي مع الذكاء الاصطناعي ليس أن الموظفين أصبحوا فجأة غير صادقين. التحول هو أن الذكاء الاصطناعي يختصر الطرق بسرعة وبسهولة وبشكل غير مرئي.

“قبل الذكاء الاصطناعي، كان إخفاء العمل السيئ أصعب”، قالت زُهرة تمساح، وهي قائدة حوكمة الذكاء الاصطناعي والرئيس التنفيذي لشركة i-GENTIC AI، وهي منصة امتثال للذكاء الاصطناعي الوكيل. “الآن يمكن للموظف أن يُنتج تقريرًا مصقولًا خلال دقائق، ويُفترض لدى المديرين وجود كفاءة. هذا يخلق وهم الإنتاجية.”

على سبيل المثال، تشير تمساح إلى موظف يستخدم الذكاء الاصطناعي لتوليد تحليل ويقدمه بثقة، لكنه لا يستطيع الدفاع عنه عندما يتم سؤاله. “تتخذ الشركة قرارات بناءً على عمل لا يفهمه أحد حقًا”، أضافت تمساح. “أكبر تهديد ليس الغش في الاختبارات. التهديد الأكبر هو أن الشركات تخسر ببطء ذكاءها الداخلي بينما تظن أن فرقها تفكر بشكل مستقل.”

ويقول مديرون تنفيذيون آخرون بارزون في الشركات إن البيانات تشير إلى أن الشركات لا ترى سوى الآن رأس جبل الجليد بخصوص استخدام الذكاء الاصطناعي الظل. ضع الصورة الكاملة من دراسة ملبورن:

— يستخدم 44% من العاملين في الولايات المتحدة أدوات ذكاء اصطناعي دون تصريح مناسب،

— قام 46% برفع معلومات حساسة خاصة بالشركة والملكية الفكرية إلى منصات ذكاء اصطناعي عامة، ويعترف 64% بأنهم يضعون جهدًا أقل في عملهم لأنهم يمكنهم الاعتماد على الذكاء الاصطناعي.

— أكثر من النصف، 57%، يرتكبون أخطاء في عملهم بسبب استخدام ذكاء اصطناعي غير مُراقَب، و53% يخفيون استخدامهم للذكاء الاصطناعي بالكامل، ويعرضون محتوى مولدًا بالذكاء الاصطناعي باعتباره عملهم.

“ليس الأمر فقط أن الناس ينسبون للذكاء الاصطناعي ويقدّمونه كعملهم؛ بل إنهم أيضًا يُسمِّمون البئر المؤسسي بالاعتماد على ‘هلام’ الذكاء الاصطناعي”، قال Nick Misner، كبير مسؤولي التشغيل لدى Cybrary، وهي منصة لتطوير مهارات الأمن السيبراني مقرها أتلانتا. “في حين أن الذكاء الاصطناعي يسرّع السرعة التي يمكننا بها البرمجة، فإنه يُدخل مزيدًا من الديون والثغرات الأمنية إلى المؤسسة.”

القصة تواصل  

يلاحظ Misner أن هذا ليس اتجاهًا معزولًا؛ بل هو فشل منهجي في الجاهزية التنظيمية.

“نحن نرى تبنّي الذكاء الاصطناعي يتفوق بكثير على الحوكمة”، قال. “تخبرنا تقارير Gallup عن حالة مكان العمل العالمي بأن 79% من القوى العاملة العالمية تقع في مكان ما بين ‘القيام بالحد الأدنى’ و’الانفصال الفعّال’.”

وبالتالي، عندما تُعطي العاملين المنفصلين أداة قوية دون توجيه ذي معنى، فمن غير المرجح أن يستخدموها ليصبحوا أكثر إنتاجية. “سيستخدمونها للقيام بالعمل نفسه بمجهود أقل أو، الأسوأ، لقطع الزوايا بطرق تُنشئ مخاطر تنظيمية حقيقية”، كما أشار.

لا يقتصر التهديد على الغش في الاختبارات فحسب، رغم أنه في قضية أُبلغ عنها من KPMG Australia هذا الأسبوع، تم القبض على 28 موظفًا يستخدمون الذكاء الاصطناعي للغش في امتحانات داخلية، بما في ذلك شريك فُرض عليه غرامة قدرها 10,000 دولار للغش في امتحان أخلاقيات الذكاء الاصطناعي.

“هذا المثال يوضح بوضوح المفارقة”، قال Misner. “الخطر الأكبر هو أن المؤسسات تتحرك وهي لا تملك رؤية واضحة. إذا كان ما يقرب من نصف القوى العاملة لديك يستخدم الذكاء الاصطناعي بشكل غير مناسب ولا حتى تعرف ذلك، فإن تعرضك للمخاطر هائل، بدءًا من تسرب البيانات إلى انتهاكات الامتثال إلى تآكل المهارات التي يحتاجها الناس فعليًا.”

إخراج استخدام الذكاء الاصطناعي الخبيث من الظلال

يجب على فريق الإدارة العليا التحرك عبر تقديم مقترحات وسياسات وغرامات لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي في شركاتهم. ينبغي أن تكون هذه الاستراتيجيات على رأس قائمة أولوياتهم.

تعلم من الماضي

هناك حالة قوية يمكن تقديمها مفادها أن أرقام ملبورن/KPMG ليست فريدة بالنسبة للذكاء الاصطناعي.

“رأينا أنماطًا مشابهة عندما دخل الإنترنت ومحركات البحث لأول مرة إلى مكان العمل”، قال Joe Schaeppi، الشريك المؤسس لشركة Solsten، وهي شركة لإشراك المستخدمين تعتمد على الذكاء الاصطناعي ومقرها في مينيابوليس، مينيسوتا. “كلما ظهر أداة جديدة قوية، يصبح سوء الاستخدام أمرًا لا مفر منه؛ هذه طبيعة بشرية.”

ومع نمو اعتماد الذكاء الاصطناعي، قال Schaeppi إن الإدارة سترجح أن ترى المزيد من التجارب وسلوكيات تقع في المنطقة الرمادية، لكن كما هو الحال مع كل التقنيات، تتطور الحوكمة والضوابط. “تقوم شركات مثل Anthropic بالفعل بتوجه أكثر تركيزًا على المؤسسات، من خلال وضع قواعد وقيود لتقليل المخاطر مع نضوج التكنولوجيا”، كما أشار. “إذا كنت شركة ورأيت سلوكًا غير مناسب على أي أداة، فينبغي توجيه القلق إلى الثقافة وكيف تُنفّذ السياسات والإجراءات.”

التركيز على الإشراف البشري

لضبط التفاعل مع الذكاء الاصطناعي في مكان العمل، يجب على الإدارة تكليف فريق تحليل للذكاء الاصطناعي بمراجعة إمكانية وصول الشركة إلى البيانات والأذونات الخاصة بأنواع البيانات التي تُعد حيوية لمستقبل الأعمال.

“بعد ذلك، تعد البيانات الاصطناعية ليست شيئًا جديدًا وهي طريقة رائعة لا يزال يمكنك من خلالها نمذجة النتائج مع الاستفادة من بياناتك”، قال. “بالإضافة إلى ذلك، سأحرص دائمًا على إشراك إنسان في الحلقة قبل أن يحدث أي شيء على أرض الواقع. ما زالت عدة شركات تجد أرقام تقارير الذكاء الاصطناعي غير صحيحة. سواء كان ذلك لضمان أن الرسائل ما تزال متوافقة مع العلامة التجارية أو مناسبة، فمن المهم إبقاء الإنسان في الحلقة.”

وضّح قواعد استخدام الذكاء الاصطناعي بدقة

ينبغي أيضًا أن توفر الشركات أدوات ذكاء اصطناعي داخلية معتمدة وأن تضع قاعدة واحدة واضحة. لا تقم أبدًا بإدخال معلومات سرية أو منظَّمة في أنظمة ذكاء اصطناعي عامة.

“يجب عليهم أيضًا مراقبة مسار تدفق البيانات الحساسة، خصوصًا النسخ واللصق في أدوات الذكاء الاصطناعي، وهو الآن ثغرة عمياء رئيسية لا تنتبه لها معظم الشركات تمامًا”، قالت Timsah. "والأهم من ذلك، يجب على الشركات تغيير طريقة تقييم الموظفين. "

كما تشجع تمساح قادة الشركات على تجنب مكافأة المخرجات المصقولة وحدها. “اطلب من الموظفين شرح منطقهم وإظهار فهمهم”، قالت. “يمكن للذكاء الاصطناعي توليد إجابات، لكنه لا يمكنه تعويض الملكية أو المساءلة.”

كانت السياسة الأولى التي نفذها فريق تمساح في i-GENTIC بسيطة وواضحة: يمكن للموظفين استخدام أدوات ذكاء اصطناعي معتمدة، لكن لا يمكنهم إدخال معلومات سرية أو خاصة بالعميل أو مالية أو مملوكة في أنظمة ذكاء اصطناعي عامة.

“ركزنا على الوضوح، لا على القيود”، كما لاحظت. “هذا ولّد ثقة لأن الموظف كان يعرف أن استخدام الذكاء الاصطناعي مسموح به، لكن ضمن حدود واضحة. كما بنى ذلك مساءلة، لأن الجميع فهم ما هو آمن وما ليس كذلك.”

وينبغي أن تركز التدريبات داخل الشركة على أمثلة عملية، وليس سياسات عامة غامضة لا يقرأها أحد. يحتاج الموظفون إلى فهم واضح لما هو آمن وما ليس كذلك.

“استخدام الذكاء الاصطناعي لإعادة صياغة بريد إلكتروني عام أمر جيد”، قالت تمساح. “أما رفع عقود العملاء أو البيانات المالية أو المعلومات المملوكة في أداة ذكاء اصطناعي عامة فليس كذلك. استخدام الذكاء الاصطناعي لتبادل الأفكار أمر جيد. تقديم تحليل مولد بالذكاء الاصطناعي لا تفهمه باعتباره عملك ليس كذلك.”

متى تستدعي الحصول على مساعدة إنفاذ خارجية ؟

يصبح سوء استخدام الموظفين للذكاء الاصطناعي قضية قانونية عندما توجد نية وإلحاق ضرر.

“يشمل ذلك تسريب البيانات السرية، وسرقة الملكية الفكرية، والتلاعب بالمعلومات المالية، أو ارتكاب الاحتيال بمساعدة الذكاء الاصطناعي”، كما أشارت تمساح. “عندها قد تشرك الشركات محققين أو جهات تنظيمية أو إنفاذ القانون.”

كما يجب أن يعرف صانعو قرارات الشركات أن معظم سوء الاستخدام يبدأ كوسيلة للراحة، وليس بنية خبيثة، لكن بمجرد أن يسبب ضررًا حقيقيًا أو تعرضًا ماليًا أو خداعًا، فإنه ينتقل إلى نطاق قانوني. “التمييز الرئيسي هو ما إذا كان سوء الاستخدام أدى إلى تعرض أو خسارة أو إخفاء متعمد”، كما أضافت تمساح.

وأخيرًا، ركّز على التدريب

يقول خبراء إن من المهم التنبيه إلى أن المؤسسات ينبغي أن تعامل استخدام الذكاء الاصطناعي مثل أي سلوك آخر عالي الخطورة وأن تُعلِم الموظفين كيفية استخدامه بأمان.

بالإضافة إلى ذلك، عند تثقيف الموظفين حول استخدام الذكاء الاصطناعي، يجب على الإدارة أن تُبلغهم بأن استخدام الذكاء الاصطناعي لا يُعفيهم من المسؤولية.

“لا يزال الموظفون مسؤولين عن التأكد من أن المعلومات التي يرفعونها على منصات الذكاء الاصطناعي دقيقة وليست مخالفة لأي قوانين”، قال Kelsey Szamet، الشريك في Kingsley Szamet Employment Lawyers. “وينبغي أن يكون الموظفون أيضًا على علم بأن رفع معلومات سرية ومملوكة على منصات الذكاء الاصطناعي قد يؤدي إلى تعرّض هذه المعلومات بشكل دائم على المنصة.”

ومن منظور التوظيف، الاتساق هو المفتاح. إذا تم إنهاء خدمة موظف بسبب سوء استخدام الذكاء الاصطناعي ولم يتم إنهاء خدمة موظف آخر، فهذا يخلق قضايا مسؤولية تتعلق بالتمييز والانتقام. “كلما كان هناك سياسة وعملية تدريب أقوى مطبقة، قلّ خطر التقاضي”، قال Szamet.

القلق الأكبر ليس أن الموظفين سيستخدمون الذكاء الاصطناعي. سيستخدمونه. “القلق هو أن الشركات ستعالج ذلك قبل أن يصبح مشكلة”، كما أضاف Szamet.

الشروط وسياسة الخصوصية

لوحة الخصوصية

المزيد من المعلومات

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت