مؤسسة NIST تطلق المسودة الأولية لإطار الأمن السيبراني للذكاء الاصطناعي (Cyber AI Profile)
أعلنت NIST عن الإصدار الأولي التمهيدي من
Cybersecurity Framework Profile for Artificial Intelligence
وهو إطار مجتمعي مبني على NIST CSF 2.0 لمساعدة المؤسسات على إدارة مخاطر الأمن السيبراني في عالم تقوده تقنيات الذكاء الاصطناعي.
أحد أهم أجزاء المسودة هو القسم 2.1، والذي يوضح بشكل عملي ثلاثة محاور (Focus Areas) تشرح كيف يتقاطع الذكاء الاصطناعي مع الأمن السيبراني في الواقع المؤسسي:
أنظمة الذكاء الاصطناعي أوجدت أصولاً جديدة يجب التعامل معها كأصول سيبرانية كاملة، مثل:
• النماذج (Models)
• بيانات التدريب
• الـ Prompts
• الوكلاء (Agents)
• خطوط المعالجة (Pipelines)
• بيئات النشر
هذا المحور يؤكد أن:
مخاطر الذكاء الاصطناعي لا يجب أن تُعزل عن منظومة إدارة مخاطر الأمن السيبراني في المؤسسة، بل تُدمج ضمن الحوكمة، التقييم، الضوابط، والمراقبة.
الذكاء الاصطناعي ليس فقط شيئاً يجب حمايته، بل أداة دفاع قوية يمكن استخدامها في:
• التحليل المتقدم
• الاكتشاف المبكر
• الأتمتة
• الاستجابة للحوادث
لكن الإطار يحذّر بوضوح من:
• الإفراط بالاعتماد على الأتمتة
• مخاطر سلامة النماذج
• اتخاذ قرارات أمنية دون إشراف بشري
الذكاء الاصطناعي يدعم القرار… ولا يستبدل الحوكمة.
المهاجمون اليوم يستخدمون الذكاء الاصطناعي من أجل:
• توسيع هجمات التصيّد
• تجاوز أنظمة الكشف
• أتمتة الهجمات المعقدة
وهذا المحور يركز على:
• بناء المرونة السيبرانية
• تحسين القدرة على كشف أنماط الهجمات المدعومة بالذكاء الاصطناعي
• الاستعداد لمشهد تهديدات سريع التطور حيث يتم “تسليح” الذكاء الاصطناعي
لماذا هذا الإطار مهم؟
محاور Secure – Defend – Thwart توفر بنية عملية لربط مبادرات الذكاء الاصطناعي مع برامج الأمن السيبراني القائمة.
ومن خلال ربط متطلبات الذكاء الاصطناعي مع وظائف CSF 2.0:
• Govern
• Identify
• Protect
• Detect
• Respond
• Recover
يساعد هذا الإطار المؤسسات على دمج أمن الذكاء الاصطناعي ضمن ممارسات إدارة المخاطر المألوفة بدل التعامل معه كمجال منفصل.
ملاحظة مهمة
هذه مسودة أولية، وNIST تفتح باب الملاحظات العامة حتى
إذا كانت مؤسستك:
• تطوّر حلول ذكاء اصطناعي
• تنشرها في بيئات تشغيلية
• أو تستخدمها في الدفاع السيبراني
