مخاطر استغلال الإرهابيين لتقنيات الذكاء الاصطناعي

24

AI بالعربي – متابعات

مر ما يقرب من عام ونصف منذ أن أطلق إصدار ChatGPT-3 أحدث دورة من الذكاء الاصطناعي التوليدي. وتأرجحت الكثير من التغطية اللاحقة للذكاء الاصطناعي بين تسليط الضوء على المخاطر المستقبلية الوجودية من ناحية والتحذيرات من الأضرار الجسيمة التي يسببها الذكاء الاصطناعي بالفعل من ناحية أخرى. ويقول ديفيد ويلز، وهو مستشار أمني عالمي، في تقرير نشره معهد الشرق الأوسط إن الاستغلال المحتمل للذكاء الاصطناعي من قبل الإرهابيين والمتطرفين العنيفين اجتذب نصيبه الخاص من التحذيرات، بما في ذلك إمكانية استخدام روبوتات الدردشة لإغراء الشباب أو دفعهم إلى التطرف أو زيادة خطر الإرهاب البيولوجي.

نظرا للإطار الزمني القصير الذي أصبحت فيه أدوات الذكاء الاصطناعي التوليدية متاحة على نطاق واسع، فمن غير المستغرب أن تكون هناك مؤشرات قليلة نسبيا على استغلال الإرهابيين والمتطرفين العنيفين حتى الآن لهذه الأدوات. وفي أوائل نوفمبر 2023، خلص تقرير صادر عن التكنولوجيا ضد الإرهاب، وهي مبادرة تدعمها المديرية التنفيذية للجنة مكافحة الإرهاب التابعة للأمم المتحدة، إلى أن هناك أدلة قليلة نسبيًا على استغلال الذكاء الاصطناعي التوليدي بشكل منهجي من قبل الإرهابيين والمتطرفين العنيفين، مما يحدد تفاعلهم مع التكنولوجيا “في مرحلتها التجريبية”.

وعلى الرغم من مجموعة البيانات الصغيرة إلى حد ما، فإن الأمثلة الواردة في التقرير تظهر الاستخدام الأكثر وضوحًا للذكاء الاصطناعي التوليدي للإرهابيين والمتطرفين العنيفين في إنتاج الدعاية. وهي تشمل الملصقات التي أنشأها الذكاء الاصطناعي والتي أنتجها كيان إعلامي متحالف مع تنظيم القاعدة، والصور والميمات التي أنشأها الذكاء الاصطناعي على قناة تيليغرام اليمينية المتطرفة، ونسخ رسالة دعائية لتنظيم الدولة الإسلامية من الخطاب العربي إلى اللغات العربية والإندونيسية والإنجليزية.

ويشير التقرير أيضًا إلى استخدام الصور التي تم إنشاؤها أو تحسينها بواسطة الذكاء الاصطناعي في أعقاب الهجوم الإرهابي الذي شنته حماس على إسرائيل في 7 أكتوبر 2023، بما في ذلك العديد من الملصقات الدعائية التي تمت مشاركتها على القنوات الرسمية لكتائب عز الدين القسام. وسلطت تقارير أخرى الضوء على استخدام الذكاء الاصطناعي، بما في ذلك من قبل العنصريين البيض في الغرب، لإنشاء صور تحتفي باستخدام حماس للطائرات الشراعية في الهجوم.

ماذا رأينا حتى الآن؟

وحذرت الوكالات الحكومية في الولايات المتحدة من الاستخدام الإرهابي والمتطرف العنيف للذكاء الاصطناعي التوليدي. وفي أواخر أكتوبر 2023، كشف مدير مكتب التحقيقات الفيدرالي، كريستوفر راي، أن مكتب التحقيقات الفيدرالي لديه أدلة على استخدام الذكاء الاصطناعي “لتضخيم توزيع أو نشر الدعاية الإرهابية”، مع أدوات الترجمة المستخدمة لجعل الدعاية “أكثر تماسكًا ومصداقية” للداعمين المحتملين. وأضاف راي أن الإرهابيين سعوا أيضًا إلى التحايل على الضمانات المضمنة في البنية التحتية للذكاء الاصطناعي للسماح لهم بإجراء عمليات بحث مثل “كيفية صنع قنبلة”. وتم أيضا استخدام الذكاء الاصطناعي التوليدي لتأجيج التوترات الداخلية وتشجيع الاستقطاب.

وفي أبريل 2023، نشر نائب رئيس الحزب السياسي الألماني اليميني المتطرف “البديل من أجل ألمانيا” العديد من الصور التي أنشأها الذكاء الاصطناعي على تويتر، بما في ذلك صورة تظهر مجموعة من الرجال ذوي البشرة الداكنة وهم يصرخون، مع نقش “لا بعد الآن.. لاجئون”، وآخر يصور وجه امرأة شقراء شابة مغطى بالدماء. وعلى الرغم من أن الأبحاث أظهرت أن القدرة التكنولوجية وتوافرها هما المحركان الرئيسيان للابتكار الإرهابي، فإن الجهات الفاعلة الإرهابية والمتطرفة العنيفة تقوم أيضًا بتقييم أي تكنولوجيا جديدة بناءً على مدى توافقها “مع طريقة عملها وأيديولوجيتها”، والتعقيد النسبي والتكلفة، والسياق الذي يتم فيه تنفيذ هذه التكنولوجيا.

على الرغم من هذه التحذيرات – والأدلة المحدودة نسبيًا على الاستخدام الإرهابي أو المتطرف العنيف للذكاء الاصطناعي التوليدي حتى الآن – فمن الواضح أنه يوفر قدرات حالية ملموسة لم يتم استغلالها بالكامل بعد، ومن المرجح أن يقدم قدرات مستقبلية. وحددت الأبحاث الأكاديمية والتحليلات الشاملة لعدة قطاعات بالفعل قائمة من الطرق التي يمكن من خلالها استغلال التكنولوجيا في الوقت الحالي.

وفي الغالبية العظمى من حالات الاستخدام هذه، يتمتع الذكاء الاصطناعي التوليدي الحالي بالقدرة على تحسين العمليات التي يمكن للإرهابيين أو الجهات الفاعلة المتطرفة العنيفة تحقيقها بالفعل من خلال وسائل أخرى، بدلاً من تقديم قدرات جديدة تمامًا لهم. ومع ذلك، فمن الأهمية بمكان أن يتم أيضًا أخذ هذه القدرات الجديدة في الاعتبار ووضعها في سياقها، نظرًا للتأثير المحتمل والحجم الذي قد تشكله. ويسمح الذكاء الاصطناعي التوليدي بإنشاء صور جديدة أو تعديل الصور الموجودة على نطاق وبسرعة لم تكن ممكنة من قبل. وبالمثل، يمكن للجهات الفاعلة الآن استخدام مثل هذه الأدوات لإنشاء مقاطع فيديو وصوتيات اصطناعية، بما في ذلك التزييف العميق لأفراد معروفين أو بارزين.

على الرغم من أن موثوقية وجودة إنتاج الفيديو كانت غير متسقة عادة، فإن إطلاق Sora من OpenAI في فبراير 2024، والذي يمكنه إنشاء مقاطع فيديو بناءً على المطالبات النصية، يشير إلى السرعة الكبيرة التي تتطور بها هذه التكنولوجيا. ويمكن لمجموعات متنوعة إنشاء نص باستخدام أنماط وتنسيقات مختلفة، واللغات الأكثر صلة. وفي السابق، كان على الجماعات الإرهابية أن تعتمد على ترجمات يدوية (وغالبا ما تكون رديئة نسبيا) للمواد الدعائية، وكانت هذه العملية تعتمد بشكل كبير على مهارات حفنة من الأفراد.

حالات الاستخدام المحتملة

ويمكن نظريًا استخدام الذكاء الاصطناعي التوليدي لإنشاء ونسخ الدعاية المرئية والصوتية، أو إنشاء دعاية قائمة على النصوص، بشكل شبه فوري وبلغات متعددة. وتخلق هذه التطورات مجتمعة إمكانية زيادة حجم ونوعية المواد الدعائية الإرهابية أو المتطرفة العنيفة. تحتاج الجهات الإرهابية أيضًا إلى إيجاد طريقة لتخزين المحتوى ومشاركته عبر الإنترنت بشكل موثوق. وبفضل مزيج من التنظيم، والعمل التخريبي، والشراكات بين القطاعين العام والخاص، يصعب حاليًا القيام بذلك عبر معظم المنصات الرئيسية، حيث تعتمد الجهات الفاعلة الإرهابية بدلاً من ذلك على خليط من الخيارات الأصغر والأقل تنظيمًا.

بالإضافة إلى هذه التحسينات المحتملة، هناك طريقتان يمكن من خلالهما للذكاء الاصطناعي التوليدي – أو على الأقل التكرارات الوشيكة نسبيًا له – أن يوفر للإرهابيين قدرات جديدة. وتمتلك ChatGPT القدرة على تحسين أداء روبوتات الدردشة بشكل كبير، وإبعادها عن الاستجابات المكتوبة مسبقًا والقائمة على القواعد وزيادة صفاتها الشبيهة بالبشر. وقد أدى هذا إلى مناقشة حول إمكانية إنشاء “GPT الإرهابي”، وهو برنامج دردشة مخصص يمكن أن يشجع الأفراد على السير في طريق التطرف.

ومما لا شك فيه أن الافتقار إلى القدرة على الوصول إلى المهارات التقنية المطلوبة كان عاملاً مهماً في النقص النسبي في نشاط الإرهاب السيبراني، ولكن الذكاء الاصطناعي التوليدي يمكن أن يساعد في سد هذه الفجوة في المهارات. ومن الواضح أن الذكاء الاصطناعي التوليدي يوفر للإرهابيين والمتطرفين العنيفين القدرة على تحسين القدرات الحالية، وفي هذه المرحلة من تطور التكنولوجيا، هناك إمكانية ضئيلة نسبيا لخلق قدرات جديدة.

و في بعض الحالات – خاصة في ما يتعلق بالدعاية – بدأت عملية التجريب بالفعل ومن المرجح أن تستمر بالتوازي مع التحسينات في قدرة الذكاء الاصطناعي التوليدية وزيادة إمكانية الوصول. وفي حالات أخرى، قد يكون تبني الإرهاب غير متساوٍ، أو يستغرق وقتًا أطول بكثير، أو لا يحدث على الإطلاق.

اترك رد

Your email address will not be published.