تطور الهجمات السيبرانية المدعومة بالذكاء الاصطناعي يقلق خبراء الأمن السيبراني

تطور الهجمات السيبرانية المدعومة بالذكاء الاصطناعي يقلق خبراء الأمن السيبراني

AI بالعربي – متابعات

أظهر تقرير حديث صادر عن شركة Lenovo أن غالبية الشركات تشعر بقلق متزايد من تعاظم مخاطر الهجمات السيبرانية المدعومة بالذكاء الاصطناعي.

يشير التقرير إلى أن 31% فقط من قادة تكنولوجيا المعلومات يثقون بقدرتهم على صد هذه الهجمات، بينما لا يتجاوز نسبة الذين يثقون تمامًا في جاهزيتهم للتعامل مع مخاطر الذكاء الاصطناعي الهجومي 10%.

وتثير قدرة أنظمة الهجمات المدعومة بالذكاء الاصطناعي على التكيّف مع آليات الدفاع المخاوف من تخطي منصات الأمان التقليدية وتحويل الأدوات نفسها إلى سلاح ضِدّ المؤسسات.

ملخّص النتائج الأساسية والتبعات الأمنية

تُظهر النتائج فرقًا واضحًا بين سرعة تطور أدوات الهجوم وسرعة تحديث استراتيجيات الدفاع داخل الشركات. الذكاء الاصطناعي الهجومي قادر على تعديل تكتيكاته استجابةً لإشارات الكشف وطرق الوقاية، ما يجعل الهجمات أكثر دقة وفعالية، ويُضعف الاعتماد على أدوات الحماية التقليدية التي تعمل بنماذج ثابتة. إلى جانب ذلك، يُعرب القادة عن قلقهم من الاستخدام غير المنضبط لأدوات الذكاء الاصطناعي بين الموظفين داخل المؤسسات، وهو عامل يفتح ثغرات جديدة ويمكن استغلاله بسهولة في هجمات التصيّد التكتيكي والهندسة الاجتماعية المدنية.

كيف يطوّر الذكاء الاصطناعي قدرات المهاجمين

شهدت السنوات الأخيرة نمواً في استخدام تقنيات الذكاء الاصطناعي لتلقين أنظمة خبيثة قدرات التعلّم من الاستجابات الأمنية وتحسين سيناريوهات الهجوم. هذه الأنظمة يمكنها توليد رسائل تصيّد تبدو أكثر واقعية، واختبار شبكات داخلية بسرعة، وتجاوز مرشحات البريد الإلكتروني والأدوات التي تعتمد على قواعد ثابتة. كما أن التكامل بين قدرات التحليل اللغوي وتعلّم الآلة يُنتج هجمات مخصّصة تستهدف موظفين محدّدين أو أقسام بعينها، ما يزيد من فرص النجاح ويخفّض من معدلات الاكتشاف.

ردود فعل الخبراء والمختصين

اعتبر محلّلون في أمن المعلومات أن التهديد الجديد يتطلب إعادة نظر شاملة في استراتيجيات الحماية: من تحديث البنية التحتيّة الأمنية لتبني أدوات مراقبة سلوكية تعتمد على الذكاء الاصطناعي نفسها، إلى رفع مستوى وعي الموظفين عبر تدريب مستمر يركّز على مخاطر استخدام الأدوات المفتوحة ووضع سياسات صارمة للاستخدام. وحذّر بعض الخبراء من فخ السّلامة الزائفة الذي يشيع عند الاعتماد على أدوات قد تبدو فعّالة بمؤشرات ثابتة لكنها غير قادرة على التعامل مع خصائص التكيّف الديناميكي التي تميّز الهجمات المعتمدة على الذكاء الاصطناعي.

نقاط الضعف البشرية والتشغيلية

أوضح التقرير أن جزءًا كبيرًا من المخاطر ينبع من الاستخدام غير المنضبط لتطبيقات الذكاء الاصطناعي داخل بيئة العمل، سواء عبر أدوات مساعدة في كتابة النصوص أو أدوات تحليل البيانات، إذ قد تُسرّب بيانات حساسة عن طريق الخطأ أو تُستخدم النماذج لتوليد تعليمات برمجية تحتوي على ثغرات. كما أن نقص الخبرة لدى فرق الأمن في فهم سلوك النماذج الحديثة يخلق فجوة يمكن للمهاجمين استغلالها لصنع هجمات أكثر تعقيدًا ونجاحًا.

توصيات عملية للشركات والمؤسسات

يوصي خبراء الأمن بضرورة إعادة هندسة دفاعات الشركات لتصبح قابلة للتكيّف والتعلّم، مع الاعتماد على حلول رصد وسلوك تعتمد على مؤشرات غير ثابتة بدلاً من قواعد جامدة. كما يجب تنفيذ برامج تدريبية إلزامية للموظفين حول مخاطر أدوات الذكاء الاصطناعي وكيفية التعامل مع الروابط والملفات المشبوهة، وتطبيق ضوابط صارمة على مشاركة المعلومات الحساسة مع منصات خارجية. كما تُشَدَّد الدعوة إلى إجراء اختبارات اختراق محسّنة تحاكي هجمات مدعومة بالذكاء الاصطناعي لاختبار جاهزية الأنظمة بشكلٍ حقيقي.

أثر التهديد على منظومة صناعة الأمن الرقمي

في ظل هذا التحوّل، تتسارع الاستثمارات نحو حلول أمان تعتمد بدورها على الذكاء الاصطناعي القادر على التعرف على الأنماط الجديدة والردّ الآني. وترتفع الحاجة لتعاون بين شركات التكنولوجيا ومورّدِي الأمن لوضع معايير وتبادل قواعد تحذير مبكرة. كما يظهر أن اللاعبين الكبار في القطاع التقني، مثل جوجل والفاعلين الآخرين من مطوّري منصات الذكاء الاصطناعي، يتحملون مسؤولية أخلاقية وتقنية في تعزيز آليات السلامة وطرح أدوات شفافة تخفّض من احتمال سوء الاستخدام.

ما الذي يعنيه هذا للمؤسسة العربية والمتوسّطية؟

على المستوى الإقليمي، تمثل هذه التحديات فرصة لإعادة تقييم سياسات الأمن السيبراني ورفع مستوى التنسيق بين القطاعين العام والخاص. تحتاج المؤسسات إلى اعتماد سياسات خصوصية وصلاحيات محكمة، وتبنّي استراتيجيات استجابة للحوادث تتضمّن سيناريوهات مختبرية تحاكي هجمات مستندة إلى الذكاء الاصطناعي. وفي الوقت نفسه، يجب أن تُؤطَّر أدوات الذكاء الاصطناعي في العمل بسياسات واضحة تمنع تسريب البيانات أو توليد محتوى ضار.

الخلاصة

يؤكد تقرير Lenovo أن الشركات بين فكيّ تحدّي متداخل: تطور متسارع في قدرات المهاجمين بفضل الذكاء الاصطناعي، مقابل تأخّر محسوس في استعدادات الدفاع ووعي الموظفين. الحلّ يتطلّب مزيجًا من تحديث التكنولوجيا، تأهيل العنصر البشري، ووضع أطر تنظيمية واضحة، مع تعزيز التعاون بين مزوّدي التكنولوجيا ومجتمعات الأمن لوضع حلول قابلة للتكيّف. إن تجاهل هذه المعادلة قد يجعل المؤسسات أكثر عُرضة لهجمات ذكيّة ومؤثرةً على البنية التشغيلية والخدماتية، بينما التصدي المبكر يوفّر قدرة أفضل على حماية الأصول وتقليل الخسائر.