تجارة و أعمال

معهد سانز للأمن السيبراني يطلق خارطة طريق آمنة لتعزيز استخدام الذكاء الاصطناعي بأمان

أعلن معهد سانز للأمن السيبراني اليوم عن الإطلاق الرسمي لخارطة أمن الذكاء الاصطناعي Own AI Securely ، وهو نموذج مبتكر ومنهجي يساعد المؤسسات على تبني تقنيات الذكاء الاصطناعي بطريقة آمنة ومسؤولة عبر مختلف عملياتها. وتلبي هذه الخارطة حاجة ملحّة لدى المؤسسات العالمية التي تواجه تحديات متنامية مرتبطة بسلامة الذكاء الاصطناعي والامتثال والسيطرة التشغيلية. وبينما يتعين على  فرق الأمن في القطاعين العام والخاص اليوم الدفاع عن الأنظمة التي تتطور أسرع مما توفره الأدلة التشغيلية التقليدية، فإنها بحاجة مستمرة إلى مهارات جديدة ومتقدمة لمواكبة هذا الواقع. وعلى مستوى القطاعات المختلفة، تتصاعد الحاجة إلى إرشادات موثوقة تركّز على النتائج وتعكس الجوانب التشغيلية والتقنية والحوكمة في استخدام الذكاء الاصطناعي على مستوى المؤسسات، إضافة إلى الكفاءات البشرية المطلوبة لذلك.

ولطالما وضعت دولة الإمارات الذكاء الاصطناعي في صميم استراتيجيتها للتحول في مجالات الحَوكمة والنمو  وجودة حياة المجتمع وتنويع الاقتصاد، إذ تستند الاستراتيجية الوطنية للذكاء الاصطناعي 2031 إلى دمج الذكاء الاصطناعي كمحرّك رئيسي لازدهار المستقبل من خلال إيجاد مسارات جديدة للنمو وزيادة الكفاءة وتعزيز الاستدامة طويلة الأمد. ووفقاً لتقديرات شركة برايس ووترهاوس كوبرز، فمن المتوقع أن يتجاوز الإنفاق العالمي على الذكاء الاصطناعي 300 مليار دولار أمريكي بحلول العام 2026، وأن يساهم الذكاء الاصطناعي بما يصل إلى 13.6% من الناتج المحلي الإجمالي لدولة الإمارات بحلول العام 2030.

في تعليقه على الأمر قال روب تي. لي، الرئيس التنفيذي للأبحاث والرئيس التنفيذي للذكاء الاصطناعي لدى معهد سانز للأمن السيبراني: “مع التغير السريع في الأدوار المرتبطة بالذكاء الاصطناعي وظهور مخاطر جديدة باستمرار، تحتاج المؤسسات إلى مواكبة هذا الإيقاع المتسارع والاستجابة بحزم. وتوفر هذه الخارطة هيكلاً واضحاً لبيئة تفتقر إلى التوجه الواضح، حيث قامت على الخبرات العملية الميدانية لتساعد قادة الأمن على اتخاذ القرارات المدروسة والواضحة.”

تقدم الخارطة نموذجاً بثلاثة مسارات رئيسية، يرتبط مباشرة بـ 14 برنامجاً تدريبياً رائداً وسلسلة من شهادات  GIACلتلائم الوظائف المؤسسية وتُمكّن المؤسسات من تطوير كوادر متخصصة وماهرة في أمن الذكاء الاصطناعي:

  • حماية الذكاء الاصطناعي (Protect AI): حث يتعين على فرق الأمن والهندسة حماية أنظمة الذكاء الاصطناعي من الهجمات القائمة على التوجيه وتسرب البيانات، وتضمن الضوابط القوية عبر الوصول والبيانات والنشر والمراقبة أن تبقى هذه الأنظمة آمنة وموثوقة ومرنة.
  • توظيف الذكاء الاصطناعي (Utilize AI) : يحتاج المدافعون السيبرانيون إلى مواجهة الخطر بالخطر عبر توظيف الذكاء الاصطناعي داخل مراكز العمليات الأمنية وغيرها من وظائف الأمن السيبراني مثل تحليل الأدلة الرقمية أو فرق المحاكاة الهجومية. وتُسرّع الأدوات المدعومة بالذكاء الاصطناعي عمليات الاكتشاف والفرز والاستجابة، بما يمكّن فرق الأمن من مجاراة الخصوم الذين يعملون بسرعة الآلة.
  • حوكمة الذكاء الاصطناعي (Govern AI): على التنفيذيين والمديرين وأعضاء مجالس الإدارة قيادة التحول بمسؤولية، من خلال الرقابة الواضحة وتطبيق إطار عمل للامتثال وإلمامهم بالذكاء الاصطناعي مما يضمن بقاء المؤسسات متوافقة مع التشريعات ووضع سياسات قوية وتنفيذ استراتيجيات فعّالة مع تعزيز الثقة.

وأضاف لي: “تستند الخارطة إلى ما يحدث بالفعل داخل المؤسسات. فالقادة لا يبحثون عن عناوين عامة جديدة حول سرعة تطور مشهد التهديدات، بل عن وسيلة عملية للتحرك الفعال، وهنا يأتي دور نموذج سانز الذي يوفر الهيكلية الواضحة بدلا من التشويش، والتوافق بدلًا من التشتت.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى