هذه بيان صحفي مدفوع. يرجى التواصل مع موزع البيان الصحفي مباشرة لأي استفسارات.
الذكاء الاصطناعي يعزز فشل الحوكمة، وليس مخاطر جديدة، يقول رئيس أمن المعلومات السيبرانية في هواوي تايلاند
PR Newswire
الخميس، 12 فبراير 2026 الساعة 3:14 مساءً بتوقيت GMT+9 قراءة لمدة 3 دقائق
بانكوك، 12 فبراير 2026 /PRNewswire/ – لا يخلق الذكاء الاصطناعي (AI) مخاطر جديدة للمنظمات، لكنه يضاعف بشكل كبير نقاط الضعف الموجودة في الحوكمة وإدارة المخاطر والامتثال (GRC)، وفقًا للدكتور بونغبيسيت ووتيديتاتشوتي، مسؤول أمن المعلومات السيبرانية والخصوصية في هواوي تكنولوجيز (تايلاند) المحدودة.
الدكتور بونغبيسيت ووتيديتاتشوتي، مسؤول أمن المعلومات السيبرانية والخصوصية في هواوي تكنولوجيز (تايلاند) المحدودة.
وفي مناقشة ضمن جلسة بعنوان “الذكاء الاصطناعي لا يخلق مشاكل جديدة، بل يضخم القديمة” في مؤتمر Cybersec Asia 2026، قال الدكتور بونغبيسيت إن المخاوف المتزايدة حول سوء استخدام الذكاء الاصطناعي غالبًا ما تشتت انتباه المنظمات عن القضية الحقيقية: نقص الحوكمة الأساسية.
“المشكلة ليست في الذكاء الاصطناعي،” قال. “الذكاء الاصطناعي يكشف ببساطة عن ما فشلت المنظمات في إدارته، من سياسات غير واضحة، وضعف الضوابط، إلى مخاطر غير مُدارة.”
وشدد الدكتور بونغبيسيت على ضرورة أن تحدد المنظمات قواعد داخلية واضحة قبل نشر الذكاء الاصطناعي، بما في ذلك الأدوات المسموح بها، والبيانات التي يمكن استخدامها، وما إذا كانت المنصات العامة أو الخاصة مناسبة.
بدون هذه الضوابط، يمكن للذكاء الاصطناعي أن يسرع بشكل كبير من المخاطر السيبرانية، خاصة في البيئات التي لا تزال تعتمد على أنظمة قديمة.
“إذا تم ربط الأنظمة القديمة بالإنترنت، يمكن للذكاء الاصطناعي تحديد الثغرات بسرعة أكبر من قبل،” أشار. “بدون حوكمة، لا يمكن للمنظمات تقييم ما إذا كانت المخاطر التي تتخذها مقبولة.”
من السياسات إلى التنفيذ
يتطلب الحوكمة الفعالة للذكاء الاصطناعي ترجمة السياسات إلى ضوابط تقنية قابلة للتنفيذ، خاصة في بيئات السحابة.
“لا يمكن أن تظل السياسات على الورق. يجب تنفيذها من خلال التكنولوجيا — السياسات كرمز — مدعومة بعمليات واضحة،” قال.
وشدد الدكتور بونغبيسيت على أن تبني الذكاء الاصطناعي بشكل مستدام يعتمد على قوة الأشخاص والعمليات والتكنولوجيا مجتمعة، وليس الاعتماد على عامل واحد فقط.
من وجهة نظر هواوي كمزود تكنولوجيا عالمي، يُعامل الذكاء الاصطناعي كأداة بحتة — يجب تصميمها بمسؤولية من البداية. تطبق هواوي مبادئ الأمان والخصوصية من التصميم وإلى التشغيل المستمر طوال دورة حياة الذكاء الاصطناعي، من مصدر البيانات ومعالجتها إلى النشر والعمليات المستمرة، وفقًا للمعايير والممارسات الأفضل العالمية مثل ISO/IEC 42001. أنظمتها شفافة، مما يتيح للعملاء مراقبة والتحقق من الممارسات من خلال مركز الشفافية للأمن السيبراني وحماية الخصوصية العالمي التابع لهواوي.
“يجب تقييم كل مكون من مدخلات البيانات إلى المخرجات من حيث مخاطر الأمن السيبراني والخصوصية،” أوضح. “لا يمكن القضاء على المخاطر، ولكن يمكن تقليلها إلى مستوى مقبول من خلال الضوابط المناسبة.”
وذكر أيضًا أن هناك مخاوف ناشئة تتعلق بحقوق النشر، والمكونات مفتوحة المصدر، وتدفقات البيانات عبر الحدود، محذرًا من أن الاستخدام غير المُدار للذكاء الاصطناعي قد يقوض السيادة الرقمية.
اختتم الدكتور بونغبيسيت أن تبني الذكاء الاصطناعي لا مفر منه، لكن الاعتماد غير المسؤول ليس كذلك.
“الذكاء الاصطناعي مثل أي تقنية تحويلية أخرى. لا يمكن للمنظمات تجنبه،” قال. “لكن يجب أن تدمج الأمان والخصوصية من البداية — وليس كفكرة لاحقة.”
عن هواوي
تأسست في عام 1987، تعتبر هواوي مزودًا عالميًا رائدًا للبنية التحتية لتكنولوجيا المعلومات والاتصالات (ICT) والأجهزة الذكية. لدينا أكثر من 207,000 موظف، ونشغل في أكثر من 170 دولة ومنطقة، نخدم أكثر من ثلاثة مليارات شخص حول العالم.
مهمتنا هي جلب الرقمية لكل شخص ومنزل ومنظمة لعالم متصل وذكي بالكامل. لتحقيق ذلك، سنقود الاتصال الشامل ونشجع على الوصول المتساوي إلى الشبكات؛ ونقدم السحابة والذكاء الاصطناعي إلى جميع أنحاء العالم لتوفير قوة حوسبة متفوقة حيثما تحتاجها، وعندما تحتاجها؛ ونبني منصات رقمية لمساعدة جميع الصناعات والمنظمات على أن تصبح أكثر مرونة وكفاءة وديناميكية؛ ونعيد تعريف تجربة المستخدم بالذكاء الاصطناعي، مما يجعلها أكثر تخصيصًا للناس في جميع جوانب حياتهم، سواء كانوا في المنزل، في المكتب، أو أثناء التنقل.
لمزيد من المعلومات، يرجى زيارة موقع هواوي على الإنترنت على www.huawei.com أو متابعتنا على:
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
الذكاء الاصطناعي يضاعف فشل الحوكمة، وليس مخاطر جديدة، وفقًا لرئيس الأمن السيبراني في هواوي تايلاند
هذه بيان صحفي مدفوع. يرجى التواصل مع موزع البيان الصحفي مباشرة لأي استفسارات.
الذكاء الاصطناعي يعزز فشل الحوكمة، وليس مخاطر جديدة، يقول رئيس أمن المعلومات السيبرانية في هواوي تايلاند
PR Newswire
الخميس، 12 فبراير 2026 الساعة 3:14 مساءً بتوقيت GMT+9 قراءة لمدة 3 دقائق
بانكوك، 12 فبراير 2026 /PRNewswire/ – لا يخلق الذكاء الاصطناعي (AI) مخاطر جديدة للمنظمات، لكنه يضاعف بشكل كبير نقاط الضعف الموجودة في الحوكمة وإدارة المخاطر والامتثال (GRC)، وفقًا للدكتور بونغبيسيت ووتيديتاتشوتي، مسؤول أمن المعلومات السيبرانية والخصوصية في هواوي تكنولوجيز (تايلاند) المحدودة.
الدكتور بونغبيسيت ووتيديتاتشوتي، مسؤول أمن المعلومات السيبرانية والخصوصية في هواوي تكنولوجيز (تايلاند) المحدودة.
وفي مناقشة ضمن جلسة بعنوان “الذكاء الاصطناعي لا يخلق مشاكل جديدة، بل يضخم القديمة” في مؤتمر Cybersec Asia 2026، قال الدكتور بونغبيسيت إن المخاوف المتزايدة حول سوء استخدام الذكاء الاصطناعي غالبًا ما تشتت انتباه المنظمات عن القضية الحقيقية: نقص الحوكمة الأساسية.
“المشكلة ليست في الذكاء الاصطناعي،” قال. “الذكاء الاصطناعي يكشف ببساطة عن ما فشلت المنظمات في إدارته، من سياسات غير واضحة، وضعف الضوابط، إلى مخاطر غير مُدارة.”
وشدد الدكتور بونغبيسيت على ضرورة أن تحدد المنظمات قواعد داخلية واضحة قبل نشر الذكاء الاصطناعي، بما في ذلك الأدوات المسموح بها، والبيانات التي يمكن استخدامها، وما إذا كانت المنصات العامة أو الخاصة مناسبة.
بدون هذه الضوابط، يمكن للذكاء الاصطناعي أن يسرع بشكل كبير من المخاطر السيبرانية، خاصة في البيئات التي لا تزال تعتمد على أنظمة قديمة.
“إذا تم ربط الأنظمة القديمة بالإنترنت، يمكن للذكاء الاصطناعي تحديد الثغرات بسرعة أكبر من قبل،” أشار. “بدون حوكمة، لا يمكن للمنظمات تقييم ما إذا كانت المخاطر التي تتخذها مقبولة.”
من السياسات إلى التنفيذ
يتطلب الحوكمة الفعالة للذكاء الاصطناعي ترجمة السياسات إلى ضوابط تقنية قابلة للتنفيذ، خاصة في بيئات السحابة.
“لا يمكن أن تظل السياسات على الورق. يجب تنفيذها من خلال التكنولوجيا — السياسات كرمز — مدعومة بعمليات واضحة،” قال.
وشدد الدكتور بونغبيسيت على أن تبني الذكاء الاصطناعي بشكل مستدام يعتمد على قوة الأشخاص والعمليات والتكنولوجيا مجتمعة، وليس الاعتماد على عامل واحد فقط.
من وجهة نظر هواوي كمزود تكنولوجيا عالمي، يُعامل الذكاء الاصطناعي كأداة بحتة — يجب تصميمها بمسؤولية من البداية. تطبق هواوي مبادئ الأمان والخصوصية من التصميم وإلى التشغيل المستمر طوال دورة حياة الذكاء الاصطناعي، من مصدر البيانات ومعالجتها إلى النشر والعمليات المستمرة، وفقًا للمعايير والممارسات الأفضل العالمية مثل ISO/IEC 42001. أنظمتها شفافة، مما يتيح للعملاء مراقبة والتحقق من الممارسات من خلال مركز الشفافية للأمن السيبراني وحماية الخصوصية العالمي التابع لهواوي.
“يجب تقييم كل مكون من مدخلات البيانات إلى المخرجات من حيث مخاطر الأمن السيبراني والخصوصية،” أوضح. “لا يمكن القضاء على المخاطر، ولكن يمكن تقليلها إلى مستوى مقبول من خلال الضوابط المناسبة.”
وذكر أيضًا أن هناك مخاوف ناشئة تتعلق بحقوق النشر، والمكونات مفتوحة المصدر، وتدفقات البيانات عبر الحدود، محذرًا من أن الاستخدام غير المُدار للذكاء الاصطناعي قد يقوض السيادة الرقمية.
اختتم الدكتور بونغبيسيت أن تبني الذكاء الاصطناعي لا مفر منه، لكن الاعتماد غير المسؤول ليس كذلك.
“الذكاء الاصطناعي مثل أي تقنية تحويلية أخرى. لا يمكن للمنظمات تجنبه،” قال. “لكن يجب أن تدمج الأمان والخصوصية من البداية — وليس كفكرة لاحقة.”
عن هواوي
تأسست في عام 1987، تعتبر هواوي مزودًا عالميًا رائدًا للبنية التحتية لتكنولوجيا المعلومات والاتصالات (ICT) والأجهزة الذكية. لدينا أكثر من 207,000 موظف، ونشغل في أكثر من 170 دولة ومنطقة، نخدم أكثر من ثلاثة مليارات شخص حول العالم.
مهمتنا هي جلب الرقمية لكل شخص ومنزل ومنظمة لعالم متصل وذكي بالكامل. لتحقيق ذلك، سنقود الاتصال الشامل ونشجع على الوصول المتساوي إلى الشبكات؛ ونقدم السحابة والذكاء الاصطناعي إلى جميع أنحاء العالم لتوفير قوة حوسبة متفوقة حيثما تحتاجها، وعندما تحتاجها؛ ونبني منصات رقمية لمساعدة جميع الصناعات والمنظمات على أن تصبح أكثر مرونة وكفاءة وديناميكية؛ ونعيد تعريف تجربة المستخدم بالذكاء الاصطناعي، مما يجعلها أكثر تخصيصًا للناس في جميع جوانب حياتهم، سواء كانوا في المنزل، في المكتب، أو أثناء التنقل.
لمزيد من المعلومات، يرجى زيارة موقع هواوي على الإنترنت على www.huawei.com أو متابعتنا على: