“وزارة الأمن الداخلي الأميركية” تكشف عن تدابير جديدة لتأمين البنية التحتية وأسلحة الدمار الشامل من تهديدات الذكاء الاصطناعي
AI بالعربي – خاص
أصدرت وزارة الأمن الداخلي الأميركية “DHS”، بالتنسيق مع وكالة الأمن السيبراني “CISA”، تقريرًا جديدًا يتضمن بعض الإرشادات والتدابير الجديدة لحماية وتأمين البنية التحتية الحيوية، وأسلحة الدمار الشامل، من تهديدات ومخاطر الذكاء الاصطناعي، بما في ذلك التهديدات الكيميائية والبيولوجية والإشعاعية والنووية.
وبحسب ما أعلنته الوزارة، فإن الإرشادات والتدابير الجديدة التي تضمنها التقرير، هي إرشادات للتخفيف من مخاطر الذكاء الاصطناعي على البنية التحتية الحيوية، وتقرير عن سوء استخدام الذكاء الاصطناعي في تطوير وإنتاج الأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).
وتعتمد هذه التدابير على جهود الوزارة الأوسع لحماية بنية التحتية الحيوية للبلاد، ومساعدة الجهات المعنية على استغلال الذكاء الاصطناعي، وتشمل إنشاء مجلس أمان وأمن الذكاء الاصطناعي. هذا المجلس الجديد، الذي أُعلن عنه الأسبوع الماضي، يضم تنفيذيين في مجال التكنولوجيا والبنية التحتية الحيوية، وقادة حقوق الإنسان، وأكاديميين، وقادة الحكومات المحلية والولائية، وصانعي السياسات لتعزيز تطوير ونشر الذكاء الاصطناعي بشكل مسؤول.
ومن جانبه، قال وزير الأمن الداخلي الأميركي “أليخاندرو مايوركاس”: “يمكن للذكاء الاصطناعي أن يقدم حلولاً تحويلية للبنية التحتية الحيوية في الولايات المتحدة، وفي الوقت نفسه، يحمل خطر جعل تلك الأنظمة عرضة للفشل الحرج بطرق جديدة، والهجمات الفيزيائية، والهجمات السيبرانية. تتخذ وزارتنا خطوات لتحديد هذه التهديدات والتخفيف منها”.
وأضاف: “عندما كلف الرئيس بايدن DHS بأن تكون رائدة في التطوير الآمن والمأمون والموثوق للذكاء الاصطناعي، عززت وزارتنا جهودها السابقة لتكون رائدة في مجال الذكاء الاصطناعي. في الـ180 يومًا، منذ الأمر التنفيذي الهام لإدارة بايدن – هاريس حول الذكاء الاصطناعي، أنشأت DHS فرقة عمل جديدة للذكاء الاصطناعي، وطورت برامج تجريبية للذكاء الاصطناعي عبر الوزارة، وكشفت عن خارطة طريق للذكاء الاصطناعي تفصل استخدام DHS الحالي للذكاء الاصطناعي وخططها للمستقبل، والكثير غير ذلك”.
إرشادات للتخفيف من مخاطر الذكاء الاصطناعي على البنية التحتية الحيوية
وأصدرت وزارة الأمن الداخلي “DHS”، بالتنسيق مع وكالتها للأمن السيبراني وأمن البنية التحتية “CISA”، إرشادات جديدة للأمان والأمن لمواجهة مخاطر الذكاء الاصطناعي العابرة للقطاعات التي تؤثر في أمان وأمن أنظمة البنية التحتية الحيوية الأميركية. وتركز الإرشادات تحليلها حول 3 فئات رئيسية للمخاطر على مستوى النظام:
- الهجمات باستخدام الذكاء الاصطناعي
استخدام الذكاء الاصطناعي لتعزيز أو التخطيط أو توسيع نطاق الهجمات الفيزيائية على البنية التحتية الحيوية، أو الاختراقات السيبرانية لها.
- الهجمات المستهدفة لأنظمة الذكاء الاصطناعي
الهجمات المستهدفة على أنظمة الذكاء الاصطناعي، التي تدعم البنية التحتية الحيوية.
- أخطاء في تصميم وتنفيذ الذكاء الاصطناعي
النقص أو العيوب في التخطيط والهيكل والتنفيذ، أو تنفيذ أداة أو نظام الذكاء الاصطناعي؛ مما يؤدي إلى أعطال أو عواقب غير مقصودة أخرى تؤثر في عمليات البنية التحتية الحيوية.
وأعربت “جين إيسترلي”، مديرة وكالة CISA، عن سعادتها بقيادة تطوير “التخفيف من مخاطر الذكاء الاصطناعي: إرشادات الأمان والأمن لمالكي ومشغلي البنية التحتية الحيوية”، نيابة عن (DHS).
وأضافت: “استنادًا إلى خبرة CISA كمنسق وطني لأمن البنية التحتية الحيوية ومرونتها، يعتبر تحليل DHS، الأول من نوعه على مستوى القطاعات لناحية تحديد مخاطر للذكاء الاصطناعي على قطاعات البنية التحتية الحيوية، وأنه سيكون أداة رئيسية لمساعدة المالكين والمشغلين على التخفيف من مخاطر الذكاء الاصطناعي”.
لمعالجة هذه المخاطر، تحدد DHS استراتيجية تخفيف من أربعة أجزاء، تستند إلى إطار إدارة مخاطر الذكاء الاصطناعي “RMF” الخاص بالمعهد الوطني للمعايير والتكنولوجيا “NIST”، يمكن لمالكي ومستخدمي البنية التحتية الحيوية الأخذ بها عند التعامل مع مواقف مخاطر الذكاء الاصطناعي السياقية والفريدة:
- الحكم
إنشاء ثقافة تنظيمية لإدارة مخاطر الذكاء الاصطناعي، بإعطاء الأولوية لملكية نتائج الأمان والأمن، وتبني الشفافية الجذرية، وبناء هياكل تنظيمية تجعل الأمان أولوية قصوى في الأعمال.
- الرسم البياني
فهم سياق استخدام الذكاء الاصطناعي الخاص بك وملف المخاطر، وذلك من خلال إنشاء وفهم السياق الأساسي الذي يمكن به تقييم مخاطر الذكاء الاصطناعي والتخفيف منها.
- القياس
تطوير أنظمة لتقييم وتحليل وتتبع مخاطر الذكاء الاصطناعي بتحديد طرق ومقاييس قابلة للتكرار؛ لقياس ومراقبة مخاطر الذكاء الاصطناعي وتأثيراته.
- الإدارة
إعطاء الأولوية لمخاطر الذكاء الاصطناعي على الأمان والسلامة والتصرف بناءً عليها، وذلك من خلال تنفيذ وصيانة ضوابط إدارة المخاطر المحددة؛ لتعظيم فوائد أنظمة الذكاء الاصطناعي، مع تقليل احتمالية التأثيرات الضارة على الأمان والسلامة.
مكافحة التهديدات الكيميائية والبيولوجية والإشعاعية والنووية
وعملت الوزارة مع مكتب مكافحة أسلحة الدمار الشامل “CWMD” لتحليل خطر استخدام الذكاء الاصطناعي بشكل خاطئ؛ للمساعدة في تطوير أو إنتاج تهديدات CBRN، ولتحليل وتقديم خطوات موصى بها للتخفيف من التهديدات المحتملة للوطن. هذا التقرير، الذي تم تطويره من خلال تعاون واسع النطاق عبر حكومة الولايات المتحدة والأوساط الأكاديمية والصناعة، يعزز الأهداف طويلة الأمد حول كيفية ضمان التطوير والاستخدام الآمن والمأمون والموثوق للذكاء الاصطناعي، ويوجه الجهود المحتملة للسياسات والتنفيذ بين الوكالات.
وقالت “ماري إلين كالاهان”، الأمينة المساعدة لمكافحة أسلحة الدمار الشامل: “يحمل استخدام الذكاء الاصطناعي بشكل مسؤول وعدًا كبيرًا لتقدم العلوم، وحل التحديات العاجلة والمستقبلية، وتحسين أمننا القومي. لكن الذكاء الاصطناعي، يتطلب أيضًا أن نكون مستعدين للتخفيف السريع من سوء استخدام الذكاء الاصطناعي في تطوير التهديدات الكيميائية والبيولوجية”.
وأضافت: “يسلط هذا التقرير الضوء على طبيعة تقنيات الذكاء الاصطناعي الناشئة، وتفاعلها مع البحوث الكيميائية والبيولوجية والمخاطر المرتبطة بها، ويقدم أهدافًا طويلة الأمد حول كيفية ضمان التطوير والاستخدام الآمن والمأمون والموثوق للذكاء الاصطناعي. أنا فخورة للغاية بفريقنا في CMWD على هذا العمل الحيوي الذي يبني على الأمر التنفيذي المتقدم لإدارة بايدن – هاريس”.
جهود ومبادرات الوزارة لمواجهة مخاطر وتهديدات الذكاء الاصطناعي
قاد السكرتير “مايوركاس” جهدًا مستمرًا لتوسيع قيادة وزارة الأمن الداخلي في مجال الذكاء الاصطناعي، وأحرز تقدمًا في عدد من المبادرات الموجهة نحو حماية البنية التحتية الحيوية، وضمان تنفيذ آمن لتقنية الذكاء الاصطناعي. وأخيرًا، أسس السكرتير مجلس الأمان والأمن الاصطناعي “AISSB” ليقدم النصح لوزارة الأمن الداخلي، ومجتمع البنية التحتية الحيوية، وأصحاب المصلحة في القطاع الخاص، والجمهور الأوسع على التطوير والنشر الآمن والمأمون للذكاء الاصطناعي في البنية التحتية الحيوية للأمة. ستقدم هذه المجموعة المتنوعة من القادة في المجلس، توصيات لمساعدة أصحاب المصلحة في البنية التحتية الحيوية على استخدام الذكاء الاصطناعي بمسؤولية أكبر، وحمايتهم من مخاطره.
في مارس، كشفت وزارة الأمن الداخلي عن خريطة طريق مفصلة لاستخدام تقنيات الذكاء الاصطناعي لتقديم فوائد مهمة للشعب الأميركي وتعزيز أمن الوطن، مع حماية خصوصية الأفراد وحقوقهم المدنية وحرياتهم المدنية. وضمن خريطة الطريق، أعلنت الوزارة عن ثلاثة مشاريع تجريبية مبتكرة تستخدم الذكاء الاصطناعي في مجالات مهمة محددة، بما في ذلك المشاريع التي تستضيفها تحقيقات الأمن الداخلي “HIS”، ووكالة إدارة الطوارئ الفيدرالية “FEMA”، وخدمات المواطنة والهجرة الأميركية “USCIS”.
وأكملت وكالة الأمن السيبراني والبنية التحتية “CISA”، تجربة تشغيلية لأنظمة الذكاء الاصطناعي السيبرانية؛ للمساعدة في الكشف عن الثغرات الأمنية ومعالجتها في البرمجيات والأنظمة والشبكات الحيوية لحكومة الولايات المتحدة، وفقًا للأمر التنفيذي.
وأطلقت وزارة الأمن الداخلي في فبراير فرقة الذكاء الاصطناعي في DHS، وهي مبادرة توظيف متسارعة لاستغلال الذكاء الاصطناعي بشكل مسؤول عبر مجالات استراتيجية في مؤسسة أمن الوطن. ورأت الوزارة استجابة قوية على الفور، وتلقت آلاف الطلبات من المتقدمين المهتمين بخبراء تقنية الذكاء الاصطناعي، الذين يتطلعون إلى تعزيز عمل الوزارة في الذكاء الاصطناعي عبر المجالات الاستراتيجية لمؤسسة أمن الوطن.