كيف يؤثر الذكاء الاصطناعي على “سباق التسلح” في الأمن السيبراني؟

22

AI بالعربي – متابعات

شهدت الأعوام الأخيرة في المنطقة، هجمات سيبرانية شرسة على منشآت حساسة ومؤسسات رسمية، لفتت الأنظار، وتسببت بخسائر كبيرة، ودفعت الخبراء وصناع القرار إلى إيلاء أمن المعلومات أهمية بالغة.

وتقدر أعداد الهجمات السيبرانية بالآلاف يوميا، وتهدد المؤسسات والأفراد، ما يثقل كاهل خبراء وموظفي الأمن السيبراني.

وتفرض التحديات البحث عن حلول ناجعة لمواجهة الهجمات المتواصلة، وهنا يأتي دور الذكاء الاصطناعي ليلعب دورا محوريا في ميدان لا تفتر معاركه.

ويستطيع الذكاء الاصطناعي المساهمة في محورين لتعزيز الأمن السيبراني؛ الأول المساعدة في أتمتة مهمات عديدة يتعامل معها المحلل البشري يدويا وتستهلك كثيرا من الوقت والجهد؛ مثل تحديد أفضل السبل لتخصيص الدفاعات الأمنية.

وينطوي ذلك على كم هائل من البيانات، وهنا تكمن نقطة قوة الذكاء الاصطناعي القادر على معالجة تيرابايتات من البيانات بشكل أكثر كفاءة وفاعلية من البشر.

والمحور الثاني يكمن في قدرة الذكاء الاصطناعي على اكتشاف الأنماط ضمن كميات كبيرة من البيانات، ما يعجز عنه البشر؛ مثل الكشف عن الأنماط اللغوية للمتسللين، من خلال تهديدات ينشرونها.

ومع إثبات الذكاء الاصطناعي لجدواه، تعمل شركات كبيرة على تطوير أنظمة مبتكرة للكشف عن البرامج المضرة وعمليات التصيد الاحتيالي ونشر المعلومات المضللة؛ على غرار غوغل ومايكروسوفت وفاير أي.

وعلى الرغم من الفوائد العظيمة للذكاء الاصطناعي في مجال الأمن السيبراني، تنتشر في أوساط متخصصي الأمن جملة مخاوف وأسئلة عن دوره.

وقد تلجأ الشركات إلى استبدال المحللين البشريين، بالذكاء الاصطناعي، وسط قلق يثيره انخفاض مستوى الثقة بالأنظمة الآلية، ومشكلات التحيز والشفافية وأخلاقيات العمل في أنظمة الأمن السيبراني المبنية على الذكاء الاصطناعي؛ وفقا لموقع ”إنترستينج إنجريننج“.

وأطلق خبراء في الأعوام الأخيرة جملة تحذيرات من تحيز الذكاء الاصطناعي، وإطلاق أحكام غير منصفة تتعلق بالعرق أو بالجنس أو بالإثنية.

واعتبر الخبراء أن تحيز التعلم الآلي يعود إلى أخطاء بشرية، خلال عملية تغذية الذكاء الاصطناعي بالبيانات، التي يتولاها بشر غير محصنين تماما من التحيز.

ويخشى متخصصو أمن المعلومات أيضا من مخاطر لجوء المتسللين إلى تقنيات الذكاء الاصطناعي؛ مثل التعلم المعزز وشبكات الخصومة التوليدية، لإنتاج أنواع جديدة من الهجمات الإلكترونية.

ويحمل المستقبل إمكانيات واعدة لنمو الذكاء الاصطناعي في مجال الأمن السيبراني، ومساعدته في وقف موجات الهجمات الخبيثة.

المخاطر السيبرانية

والمخاطر السيبرانية، هي الناجمة عن الاستخدام السيئ لتطبيقات الذكاء الاصطناعي وتهدد أمن الإنترنت وما يتصل به من أنظمة وبيانات من ناحية سريتها وسلامتها وتوافرها.

ويتوقع باحثون أن تستخدم تقنيات الذكاء الاصطناعي في الهجمات الإلكترونية لما تتمتع به من ميزات تشجع الهاكرز على استخدامها، ما يتطلب حوكمة الذكاء الاصطناعي والحد من مخاطره وآثاره السلبية، مع ضرورة تعزيز وعي المُستخدِم، وتعاون الباحثين مع صناع القرار، وتشجيع الكشف عن ثغرات الأنظمة والتطبيقات بتفعيل المكافآت المادية، واللجوء للاختبارات الأمنية، وتفعيل معيار المركزية، وتفعيل خوارزميات ذكاء اصطناعي دفاعية.

ويُخشى كذلك، من استغلال أنظمة الذكاء الاصطناعي التجارية لأغراض إرهابية، وتحسين أداء المشتركين في تلك الهجمات، فضلا عن زيادة نطاق تأثيرها وتوسيعها واحتشادها، وتحرر الجاني من قيود الزمان والمكان، وانتشارها على نطاق عالمي، واتساع مدى ذاتية الأنظمة.

وتحتم تلك المخاطر على الحكومات فرض حد أدنى من المعايير على الشركات لتصنيع أنظمة مقاومة للهجمات السيبرانية والتلاعب، وفرض قيود على عمليات الشراء.

ويجب فرض قيود على مستخدمي الأنظمة الذكية، ومراقبة أطر العمل مفتوحة المصدر في الأنظمة الذاتية، وتطوير نظم دفاع مادية فعالة، وتوفير آلية مرنة للتدخل البشري عند الضرورة، للاستفادة من القفزات الهائلة للذكاء الاصطناعي على نحو أمثل، وتجنب مخاطره وسلبياته.

جهود عربية

ولمواجهة تلك التحديات ارتفعت وتيرة الاهتمام بها في العالم العربي، لنشهد في الآونة الأخيرة مبادرات من مبتكرين وخبراء شباب، حظيت باهتمام مؤسسات بلادهم، ووصل الأمر إلى تبني الجهات الرسمية لها.

وفي هذا الإطار؛ ابتكر الشاب الأردني المهندس حسين الصرايرة تطبيقا ذكيا، يكشف آليا الجرائم الإلكترونية، التي تتخذ من مواقع التواصل الاجتماعي ميدانا لها، قبل وقوعها.

وتعتمد آلية عمل التطبيق الإلكتروني ”قبل الجريمة“ على تتبع تفاعل المُستخدِم لوسائل التواصل الاجتماعي، وتنبيهه قبل إرساله أو إعادة إرساله أو نشره أو تفاعله مع أي محتوى مسيء، أو يُعرِّض المُستخدِم للمساءلة القانونية.

وقال الصرايرة لـ“إرم نيوز“: إن ”مبدأ عمل التطبيق يشابه برمجية النص التنبئي في الهواتف النقالة، إذ يحفظ التطبيق جداول قاموسية تُحدِّث باستمرار كلمات وألفاظا يُحتمَل استخدامها في الشتم أو الإساءة، ويتتبع القاموس من خلال برمجة لوحة المفاتيح، محتوى الإدخال الذي ينوي المُستخدِم إرساله أو إعادة إرساله أو نشره قبل الضغط على مفتاح الإرسال أو النشر“.

وأوضح: ”عند الضغط على مفتاح الإرسال يُظهِر التطبيق تنبيها يحذر من إرسال محتوى قد يكون مخالفا للقانون، معطيا خيارات ثلاثة؛ أولها الاستمرار والإرسال رغم التنبيه، والثاني التعديل والعودة إلى المحتوى لإعادة تحريره قبل الإرسال، والثالث خيار (المزيد) ويخيرنا بين عرض نص المادة القانونية التي خالفها المحتوى، أو عرض توضيحي وهو يتضمن فيديو قصيرا يوضح خطورة إرسال مواد مسيئة وتبعاته القانونية والعقابية، أو خيار إنهاء للعودة للمحتوى كما هو“.

من جانبه، أشار الباحث النووي الأردني الدكتور أيمن عاهد أبو غزال إلى ضرورة اتخاذ مجموعة من التدابير الفنية والإجراءات السياسية اللازمة للتصدي لمخاطر التقنيات الحديثة على الأمن النووي العالمي.

وقال أبو غزال لـ“إرم نيوز“، إن ”مستوى الأمان في المنشآت النووية، في وقتنا الحاضر، ارتفع وهو في تطور مستمر، لكن يوجد شيء من الممكن أن يتغلب على أي دفاع؛ ألا وهو العقل البشري“.

وأضاف: ”حاليا، يظهر خطر مرتبط بعصر المعلومات، ويزداد احتمال حدوث هجوم سيبراني خطير على البنية التحتية النووية المدنية، المعتمدة بشكل متزايد على الأنظمة الرقمية والبرمجيات التجارية الجاهزة“.

ولفت أبو غزال، الباحث في هيئة الطاقة الذرية الأردنية، إلى أن ”أبرز التدابير الوقائية تتلخص في وضع مبادئ لقياس مخاطر الأمن السيبراني في الصناعة النووية، بما في ذلك تقييم متكامل للمخاطر يأخذ كلا من تدابير الأمن والسلامة في الحسبان“.

وتابع: ”يجب الانخراط في حوار قوي مع المهندسين والمقاولين لزيادة الوعي بمخاطر الأمن السيبراني؛ بما في ذلك مخاطر إقامة اتصالات إنترنت غير مصرح بها. مع ضرورة تطبيق القواعد، إن وجدت بالفعل، لتطهير المنشآت النووية من بعض أنواع التقنيات (على سبيل المثال حظر استخدام الأجهزة الشخصية الذكية) وإنفاذ القواعد حيثما وجدت“.

وأشار أبو غزال إلى ضرورة تحسين الكشف المسبق عن المعلومات من خلال تشجيع التبادل السري للمعلومات وإنشاء فريق استجابة للطوارئ الحاسوبية الصناعية.

وفي المملكة العربية السعودية، أصدر باحث الدكتوراه السعودي إبراهيم المسلّم، قبل نحو عامين، أول دراسة سعودية لحوكمة الذكاء الاصطناعي والحد من مخاطره وأثاره السلبية.

ورأى المسلّم في دراسته، أن مخاطر الذكاء الاصطناعي قد تنجم عن مراحل ثلاث في دورة حياة التقنية؛ هي التطوير والأخطاء أثناء بناء الأنظمة وقياس أدائها وأمنها، ومرحلة التطبيق وأخطار سوء الاستخدام، ومرحلة المخاطر الناجمة عن التبني الواسع النطاق.

وسلطت الدراسة الضوء على انحياز الذكاء الاصطناعي، مُصنِّفةً الانحياز بأنه صفة بشرية، ولأن الذكاء الاصطناعي يحاكي الذكاء البشري عن طريق التعلم من البيانات المُدخلة له، فإنه سيرث منه عيوبه، وفي حال تضمن البيانات لعنصرية أو طبقية أو تمييز جنسي، فإن أنظمة الذكاء الاصطناعي ستعزز هذه الأفكار.

وللتصدي لمخاطر الأنظمة الذاتية ومخاطرها غير المتوقعة، رأت الدراسة ضرورة فرض تأمين إجباري على الشركات المُصنِّعة لمنتجات تتضمن أنظمة ذاتية، وفرض دراسة المخاطر عند طلب الدعم المادي في المقترحات البحثية أو المشروعات الحكومية، وتبني التقنيات تدريجيا لإتاحة الفرصة لاختبارها على نطاق مصغر.

وأشارت الدراسة إلى وجود ثغرات تشوب تطبيقات الذكاء الاصطناعي؛ منها تسميم البيانات، ما يحرف مسار تعلم النظام، خلال مرحلة التطبيق.

واتخذت السعودية إجراءات عدة لمجاراة تطور الذكاء الاصطناعي؛ منها إنشاء جهات محايدة مثل الهيئة الوطنية للأمن السيبراني، وهيئة البيانات والذكاء الاصطناعي.

وتسعى المملكة إلى وضع تنظيم جديد لحوكمة البيانات، والفصل في حقوق امتلاك البيانات وتحليلها وضبط استخدام نتائج تلك التحاليل تجاريا، ولم يقتصر الدور على التنظيم والمراقبة فقط، بل امتد إلى البحث والتطوير، وتجسد ذلك في إنشاء مدينة الملك عبدالعزيز للعلوم والتقنية لمركز وطني لتقنية الذكاء الاصطناعي والبيانات الضخمة.

ووقعت شركة أرامكو؛ عملاق النفط السعودي، مطلع العام 2020، اتفاقية مع شركة الإلكترونيات المتقدمة، تهدف إلى تطوير وتصنيع جهاز للأمن السيبراني؛ سمته «صمام البيانات» وهو الأول من نوعه في المملكة.

اترك رد

Your email address will not be published.