الذكاء الاصطناعي يساعد القراصنة على تطوير التصيد الاحتيالي
AI بالعربي – متابعات
يشعر قادة تكنولوجيا المعلومات والأمن بالقلق إزاء تأثير الذكاء الاصطناعي على الأمن السيبراني – وهم محقون في ذلك، وففًا لما أورده موقع CNBC عربية.
يمكن لقراصنة الإنترنت القيام بمهامهم المشبوهة بشكل أسرع وأسهل باستخدام الذكاء الاصطناعي، مما يجعل الأمر أكثر صعوبة على مديري أمن المعلومات وخبراء الأمن السيبراني الآخرين لحماية مؤسساتهم.
قال بريان فينش الرئيس المشارك للأمن السيبراني وحماية البيانات وممارسات الخصوصية في شركة المحاماة Pillsbury Winthrop Shaw Pittman، إن إحدى الطرق الأساسية التي يستخدمها قراصنة الإنترنت في الاستفادة من الذكاء الاصطناعي هي زيادة فعالية رسائل البريد الإلكتروني المخادعة و ما يعرف بـ “هجمات الهندسة الاجتماعية”.
قال فينش: “تاريخيًا، كان من السهل تحديد رسائل البريد الإلكتروني المخادعة إلى حد ما بفضل الصياغة غير المنضبطة”. “على وجه الخصوص، تميل رسائل التصيد الاحتيالي الإلكترونية التي أنشأها مخترق مجهول بلغة معينة إلى سهولة اكتشافها بسبب سوء القواعد اللغوية والمفردات غير المنطقية والهجاء السيئ.”
وأضاف أن مثل هذه الأخطاء الصارخة كان من السهل اكتشافها من خلال الدفاعات الآلية وكذلك من قبل الأشخاص الحريصين بشكل بسيط نسبياً.
قال فينش إن الذكاء الاصطناعي يسمح للعديد من الأشخاص – بغض النظر عن مهاراتهم اللغوية – بإنشاء نص مقنع بسرعة وبتكلفة زهيدة لاستخدامه في رسائل البريد الإلكتروني المخادعة.
باستخدام أدوات الذكاء الاصطناعي، أصبح من المرجح الآن أن تظهر رسالة البريد الإلكتروني المخادعة كأنها أصلية، مما يؤدي إلى قيام المزيد من الضحايا المحتملين بالنقر بالفعل على الروابط الخبيثة.
إليكم 3 خطوات يمكن لقادة الأمن السيبراني اتخاذها لتعزيز برامج الأمن السيبراني لمنظماتهم في عصر الذكاء الاصطناعي.
1- الذكاء الاصطناعي مقابل الذكاء الاصطناعي
أحد أكثر الأشياء فعالية التي يمكن للمؤسسات القيام بها للدفاع بشكل أفضل ضد أحدث الهجمات بمساعدة الذكاء الاصطناعي هو نشر الأدوات والخدمات التي تستخدم الذكاء الاصطناعي.
وهذا يعني ضرورة مواكبة أحدث التقنيات وتوظيف أشخاص لديهم مهارات الذكاء الاصطناعي اللازمة لاستخدام هذه المنتجات أو إعادة تدريب الموظفين الحاليين حتى يتمكنوا من استخدامها بفعالية.
قال كايل كابيل، مسؤول الأمن السيبراني في شركة KPMG الأميركية: “يمكن أن تلعب التقنيات المتقدمة مثل خوارزميات التعلم الآلي والرصد والمراقبة في الوقت الفعلي دورًا محوريًا في تحديد الانتهاكات الأمنية المحتملة أو الأنشطة الخبيثة والاستجابة لها”. “من خلال الاستفادة من هذه الأدوات، يمكن للمؤسسات تعزيز قدرتها على اكتشاف الأحداث الأمنية ومنعها والاستجابة لها بشكل فعال.”
وأضاف كابيل أنه من خلال وجود موظفين مخصصين للإشراف على أمن الذكاء الاصطناعي، يمكن للمنظمات تقييم المخاطر التي تشكلها التهديدات الناشئة بشكل فعال ووضع تدابير مضادة مناسبة.
2- تحديث برامج تدريب الموظفين
إذا كانت إحدى المؤسسات تستخدم طرقًا قديمة لتدريب الموظفين حول كيفية تجنب الوقوع فريسة للمهاجمين، فقد يكون من المرجح أن تتعرض لخرق البيانات أو أي حادث أمني آخر. تحتاج برامج التدريب إلى التحديث تمامًا مثلما تحتاج الأدوات إلى التعزيز في بيئة الأمان الجديدة هذه.
قال فينش: “الذكاء الاصطناعي حديث جدًا لدرجة أن معظم الناس – بمن فيهم مديرو الشركات – لا يفهمون حقًا كيف يمكن استخدامه لأغراض خبيثة”. “يحتاج قادة الأعمال إلى تثقيف أنفسهم وموظفيهم بشأن الاستخدامات السلبية الناشئة للذكاء الاصطناعي”.
على سبيل المثال، يحتاج الموظفون إلى تعليمهم حول ما يجب البحث عنه في رسائل التصيد الاحتيالي التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، نظرًا لأن قراصنة الإنترنت يستخدمون الذكاء الاصطناعي لجعل الرسائل تبدو حقيقية. يجب أن يكون التدريب مستمرًا، لأن التهديدات تتطور باستمرار.
3- بناء إطار أمني جديد
أخيرًا، يعد نشر الأدوات وبرامج التدريب الجديدة أمرًا جيدًا، ولكن نظرًا لخطورة أحدث التهديدات التي تعمل بالذكاء الاصطناعي، تحتاج المؤسسات إلى إنشاء استراتيجيات للمساعدة في تعزيز الأمان في جميع أنحاء المؤسسة والتأكد من تطبيق السياسات.
قال كابيل: “يجب على المسؤولين التنفيذيين اعتماد إطار عمل شامل يوجه تنفيذ الضوابط المناسبة لاستخدام الذكاء الاصطناعي عبر المؤسسة وضمن وظائف العمل المختلفة، يتضمن ذلك التفاعلات مع جهات خارجية”.
وقال إن إطار العمل يجب أن يتضمن مؤشرات المخاطر، والنظام البيئي للذكاء الاصطناعي والضوابط، ويجب معالجة الاعتبارات الأمنية الفريدة المرتبطة بالذكاء الاصطناعي داخل مؤسساتهم، وتقليل مخاطر أمن الذكاء الاصطناعي الخاصة بهم.