AI بالعربي – متابعات
في سباق عالمي لتطويع الذكاء الاصطناعي، بدأت جماعات مسلحة اختبار هذه التقنيات لأغراض تتجاوز الدعاية التقليدية، ما يثير مخاوف أمنية متصاعدة. ويرى خبراء أن هذا التحول قد يعيد رسم خريطة التهديدات غير التقليدية في السنوات المقبلة.
كيف انتقل الذكاء الاصطناعي إلى ساحة التطرف؟
مع الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدي، بات الوصول إلى هذه التقنيات متاحًا لجهات غير حكومية. هذا الواقع شجع جماعات متطرفة على تجربة استخدام الذكاء الاصطناعي، حتى دون امتلاك بنية تقنية متقدمة. ويؤكد مختصون أن سهولة الاستخدام تمثل عامل الجذب الأكبر لهذه التنظيمات.
تحذيرات أمنية من تحوّل نوعي في التهديد
حذر خبراء في الأمن القومي وأجهزة الاستخبارات من أن الذكاء الاصطناعي قد يصبح أداة شديدة الخطورة بيد التنظيمات المتطرفة. ويتيح الذكاء الاصطناعي إمكانات واسعة لتجنيد عناصر جديدة، وإنتاج محتوى مزيف عالي الواقعية، وتعزيز الهجمات السيبرانية بجهد أقل وكلفة أدنى.
دعوات صريحة داخل منصات موالية لداعش
في منشور باللغة الإنجليزية على موقع مؤيد لتنظيم داعش الشهر الماضي، دعا أحد المستخدمين إلى دمج الذكاء الاصطناعي في أنشطة التنظيم. وكتب أن الذكاء الاصطناعي يتميز بسهولة الاستخدام، مضيفًا أن أجهزة استخبارات تخشى تأثيره في التجنيد، وفق تقرير لوكالة Associated Press.
خبراء يرصدون تطور التفكير الرقمي للتنظيمات
يرى خبراء أميركيون في الأمن القومي أن تنظيم داعش أدرك منذ سنوات قوة منصات التواصل الاجتماعي في التجنيد والتضليل. وبعد تحوله إلى شبكة لا مركزية، بات التنظيم أكثر ميلًا لاختبار أدوات مرنة مثل الذكاء الاصطناعي لتعويض تراجع موارده.
الذكاء الاصطناعي يضاعف تأثير الجهات ضعيفة الموارد
بالنسبة للجماعات المفككة أو الأفراد ذوي النوايا السيئة، يسمح الذكاء الاصطناعي بإنتاج كميات ضخمة من الدعاية المزيفة. هذا المحتوى يمكن نشره بسرعة، ما يوسع دائرة التأثير ويعزز النفوذ دون بنية تنظيمية معقدة.
تحذير من خبراء الأمن السيبراني
قال جون لاليبيرت، الباحث السابق في وكالة الأمن القومي الأميركية والرئيس التنفيذي لشركة ClearVector، إن الذكاء الاصطناعي يجعل تنفيذ عمليات معقدة أسهل بكثير. وأضاف أن مجموعات صغيرة، حتى دون تمويل كبير، يمكنها إحداث أثر ملموس باستخدام هذه الأدوات.
من ChatGPT إلى المحتوى الدعائي المزيف
بدأت الجماعات المتطرفة استخدام الذكاء الاصطناعي مع انتشار أدوات مثل ChatGPT. وعلى مدى السنوات الأخيرة، لجأت إلى تقنيات توليد الصور والفيديو لإنتاج محتوى يبدو واقعيًا بدرجة عالية. وعند دمج هذا المحتوى مع خوارزميات المنصات الاجتماعية، تتحول هذه الأدوات إلى وسائل فعالة للتجنيد وبث الخوف.
أمثلة على استخدام الصور المزيفة في النزاعات
قبل عامين، انتشرت صور مزيفة عن الحرب بين إسرائيل وحركة حماس، أظهرت أطفالًا رضعًا داخل مبان مدمرة. وأثارت هذه الصور موجات غضب واسعة، بينما استغلتها جماعات عنيفة في الشرق الأوسط لتجنيد عناصر جديدة. كما استخدمتها جماعات معادية للسامية في الولايات المتحدة وأماكن أخرى.
هجوم روسيا نموذج آخر للتوظيف الدعائي
عقب هجوم تبناه فرع من تنظيم داعش في روسيا وأسفر عن مقتل نحو 140 شخصًا، انتشرت مقاطع دعائية مولدة بالذكاء الاصطناعي. وسعت هذه المواد إلى استقطاب مجندين جدد عبر المنتديات ومنصات التواصل الاجتماعي.
تسجيلات صوتية وترجمات آلية متعددة اللغات
كشف باحثون في مجموعة SITE Intelligence أن داعش أنشأ تسجيلات صوتية مزيفة لقادته. كما استخدم الذكاء الاصطناعي لترجمة رسائله بسرعة إلى لغات متعددة، ما وسع نطاق وصوله خارج دوائره التقليدية.
طموحات أكبر من القدرات الحالية
قال ماركوس فاولر، العميل السابق في وكالة الاستخبارات المركزية الأميركية والرئيس التنفيذي لشركة Darktrace Federal، إن هذه الجماعات لا تزال متأخرة تقنيًا مقارنة بدول مثل الصين وروسيا وإيران. وأوضح أن الاستخدامات المتقدمة للذكاء الاصطناعي تبقى طموحات مستقبلية حتى الآن.
مخاطر لا يمكن تجاهلها
رغم محدودية القدرات الحالية، حذر فاولر من أن انخفاض كلفة الذكاء الاصطناعي وانتشاره السريع قد يرفع مستوى الخطر. وأشار إلى أن قراصنة الإنترنت يستخدمون بالفعل الصوت والصورة الاصطناعيين في حملات تصيد معقدة.
سيناريوهات أكثر خطورة في الأفق
يثير الخبراء قلقًا متزايدًا من احتمال استخدام الذكاء الاصطناعي للمساعدة في تطوير أسلحة بيولوجية أو كيميائية. وقد أدرجت وزارة الأمن الداخلي الأميركية هذا الخطر في تقييمها المحدث للتهديدات الداخلية.
تحركات تشريعية في واشنطن
في واشنطن، دعا مشرعون إلى تحرك عاجل لمواجهة هذه المخاطر. وقال السيناتور مارك وارنر إن على الولايات المتحدة تسهيل تبادل المعلومات بين مطوري الذكاء الاصطناعي حول إساءة استخدام منتجاتهم من جهات خبيثة.
الذكاء الاصطناعي بين الإبهار وسوء الاستخدام
أوضح وارنر أن الإطلاق العلني لأدوات مثل ChatGPT في أواخر 2022 كشف أن التجريب الواسع سينتقل إلى أطراف خبيثة. وأكد أن تجاهل هذا الواقع يشكل خطأ استراتيجيًا.
ورش تدريب للتنظيمات المتطرفة
خلال جلسة استماع في مجلس النواب الأميركي، علم مشرعون أن تنظيمي داعش والقاعدة نظما ورشًا لتدريب أنصارهما على استخدام الذكاء الاصطناعي. هذا التطور يعكس انتقال التنظيمات من التجريب الفردي إلى التدريب المنهجي.
تشريع جديد لمواكبة تهديدات الغد
أقر مجلس النواب الأميركي تشريعًا يلزم مسؤولي الأمن الداخلي بإجراء تقييم سنوي لمخاطر الذكاء الاصطناعي عند استخدامه من قبل جماعات متطرفة. وقال النائب أوغست بفلوغر إن السياسات يجب أن تواكب تهديدات الغد، تمامًا كما يحدث مع الاستعداد للهجمات التقليدية.








