البنتاجون يخطط لعمل تقنية لمنع آلات القتل بالذكاء الاصطناعي من الانحراف

35

انتبه مسؤولو البنتاجون إلى خطر “الفئات الفريدة من نقاط الضعف في الذكاء الاصطناعي أو الأنظمة المستقلة”، والتي يأملون أن تتمكن الأبحاث الجديدة من إصلاحها، وتم تكليف البرنامج، المسمى ضمان قوة الذكاء الاصطناعي ضد الخداع “GARD”، منذ عام 2022 بتحديد كيفية التلاعب بالبيانات المرئية أو مدخلات الإشارات الإلكترونية الأخرى للذكاء الاصطناعي من خلال الإدخال المحسوب للضوضاء.

ووفقًا لما ذكرته صحيفة “ديلى ميل” البريطانية، أجرى علماء الكمبيوتر مع أحد مقاولي الدفاع في GARD تجربة تصحيحات مصممة للأنظمة القائمة على الذكاء الاصطناعي عند عمل معرفات مزيفة.

كما أوضح أحد كبار المسؤولين في البنتاجون الذي يدير البحث، “يمكنك بشكل أساسي، عن طريق إضافة ضوضاء إلى صورة أو جهاز استشعار، كسر خوارزمية التعلم الآلي النهائية”.

وتأتي هذه الأخبار في الوقت الذي أدت فيه المخاوف من بناء روبوتات قاتلة إلى وضع قواعد أكثر صرامة للذكاء الاصطناعي للجيش الأميركي، والتؤ تنص على ضرورة الموافقة على جميع الأنظمة قبل النشر.

وأضاف المسؤول مات توريك، نائب مدير مكتب الابتكار المعلوماتي التابع لوكالة مشاريع الأبحاث الدفاعية المتقدمة “DARPA”:: “يمكنك أيضًا، من خلال معرفة تلك الخوارزمية، إنشاء هجمات يمكن تنفيذها فعليًا”.

من الناحية الفنية، من الممكن “خداع” خوارزمية الذكاء الاصطناعي لارتكاب أخطاء حرجة في المهام، مما يجعل الذكاء الاصطناعي يخطئ في التعرف على مجموعة متنوعة من التصحيحات أو الملصقات المنقوشة لجسم مادي حقيقي غير موجود بالفعل.

على سبيل المثال، يمكن أن يخطئ الذكاء الاصطناعي في تعريف حافلة مكتظة بالمدنيين على أنها دبابة، ويمكن أن تؤدي تكتيكات “الضوضاء” الرخيصة والخفيفة الوزن إلى قيام الذكاء الاصطناعي العسكري الحيوي بتصنيف المقاتلين الأعداء بشكل خاطئ على أنهم حلفاء، والعكس صحيح، خلال مهمة حرجة.

أظهرت عمليات تدقيق البنتاجون أن الباحثين في برنامج GARD ذو الميزانية المتواضعة أنفقوا 51000 دولار في التحقيق في تكتيكات الضوضاء المرئية والإشارات منذ عام 2022.

يتضمن ما هو عام من أعمالهم دراسة أجريت عامي 2019 و2020 توضح كيف يمكن تفسير الضوضاء البصرية، التي يمكن أن تبدو مجرد زينة أو غير مهمة للعين البشرية، على أنها جسم صلب بواسطة الذكاء الاصطناعي.

تمكن علماء الكمبيوتر بالتعاون مع شركة MITRE Corporation، وهي شركة مقاولات دفاعية، من إحداث ضوضاء بصرية ظنها الذكاء الاصطناعي خطأً على أنها تفاح على رف متجر بقالة، أو حقيبة متروكة في الخارج، وحتى أشخاص.

وبينما يعتقد البنتاجون أن التغييرات في تصميم استجابة الذكاء الاصطناعي للضوضاء يجب أن تريح عقول الجمهور، قال البعض إنهم غير “مقتنعين” بالجهود المبذولة.

وقال مارك براكيل، مدير منظمة “معهد مستقبل الحياة FLI”، لصحيفة ديلي ميل في يناير الماضي: “تحمل هذه الأسلحة خطرًا كبيرًا للتصعيد غير المقصود”.

وأوضح أن الأسلحة التي تعمل بالذكاء الاصطناعي يمكن أن تسيء تفسير شيء ما، مثل شعاع ضوء الشمس، وقال براكيل إن النتيجة يمكن أن تكون مدمرة لأنه “بدون سيطرة بشرية ذات معنى، فإن الأسلحة التي تعمل بالذكاء الاصطناعي قد تسبب كوارث”.

وتسعى وزارة الدفاع بقوة إلى تحديث ترسانتها باستخدام الطائرات بدون طيار والدبابات والأسلحة الأخرى التي تختار الهدف وتهاجمه دون تدخل بشري.

اترك رد

Your email address will not be published.