استخدام الذكاء الاصطناعي للقيام بمهام عسكرية.. مجازفة قد تتسبب بكوارث

23

AI بالعربي – متابعات

ذكر مقال تحليلي نشرته مجلة “فورين أفيرز” الأميركية أن إطلاق شركة “OpenAI” الأميركية لروبرت الدردشة “ChatGPT” الذي يمتلك قدرات استثنائية، كشف عن جدل واسع حول كيفية استخدام مثل هذه البرامج المتطورة لأداء مهام عسكرية تشمل خوض الحروب أيضًا.

وحذر مستشارون في اللجنة الدولية للصليب الأحمر، من أن مثل هذه التقنيات التي اصطلح على تسميتها بالنماذج اللغوية الكبيرة “LLMs” يمكن أن تحل مكان البشر في اتخاذ قرارات مصيرية تتعلق بمسائل الحياة والموت.

وتقوم وزارة الدفاع الأميركية بالتحقيق بجدية فيما يمكن أن تفعله نماذج الذكاء الاصطناعي التي يتم تدريبها على كميات هائلة من بيانات النصوص بالنسبة للجيش الأميركي.

وفي ربيع عام 2022 أنشأت وزارة الدفاع الأميركية مكتبًا رئيسًا للذكاء الرقمي والاصطناعي وذلك لاستكشاف كيف يمكن للذكاء الاصطناعي أن يساعد القوات المسلحة الأميركية.

وفي نوفمبر من عام 2023، أصدرت وزارة الدفاع إستراتيجيتها لاعتماد تقنيات الذكاء الاصطناعي وقد ذكرت أن “أحدث التطورات في مجال البيانات والتحليلات وتقنيات الذكاء الاصطناعي ستمكن القادة من اتخاذ قرارات عسكرية أفضل وبشكل أسرع”.

وكشفت فورين أفيرز النقاب عن أن القوات المسلحة في الولايات المتحدة تمتلك أنظمة تدعم الذكاء الاصطناعي لاختيار أهداف لضرب مليشيا الحوثي، مثلًا في الشرق الأوسط.

وتقوم كل من قوات مشاة البحرية الأميركية والقوات الجوية بتجربة هذه النماذج اللغوية الكبيرة واستخدامها في المناورات الحربية، والتخطيط العسكري، فيما قامت شركة البرمجيات الأميركية “بلانتير للتكنولوجيا وهي الشركة التي تعمل على تطوير تكنولوجيا المعلومات لوزارة الدفاع الأميركية بإنشاء منتج يستخدم النماذج اللغوية الكبيرة لإدارة العمليات العسكرية”.

وفي الوقت نفسه، شكلت وزارة الدفاع الأميركية فرقة عمل جديدة لاستكشاف استخدام الذكاء الاصطناعي التوليدي، بما في ذلك النماذج اللغوية داخل الجيش الأميركي.

وأشار المقال إلى أنه وعلى الرغم من الحماسة الكبيرة داخل البنتاغون الأميركي تجاه استخدام تقنيات الذكاء الاصطناعي لأغراض عسكرية والتي تشمل أيضًا استخدام النماذج اللغوية الكبيرة، إلا أن مسؤولين في البنتاغون يشعرون بالقلق إزاء المخاطر التي تشكلها مثل هذه التقنيات على البشر.

ومؤخرًا، نشرت البحرية الأميركية إرشادات تحد من استخدام هذه النماذج اللغوية، مشيرة إلى وجود نقاط ضعف أمنية تتعلق بتسريب غير مقصود لمعلومات حساسة، إذ شدد المقال على أن مثل هذه المخاوف لها ما يبررها لجهة عدم إمكانية التنبؤ بما يمكن أن تفعله هذه التقنيات.

ما النماذج اللغوية الكبيرة؟

تعد النماذج اللغوية الكبيرة “LMMs” أنظمة ذكاء اصطناعي مدربة على مجموعات كبيرة من البيانات التي تولد نصًا، كلمة واحدة في كل مرة، بناءً على ما تمت كتابته من قبل.

ويتم تدريب هذه التقنيات على الأنماط الأساسية الموجودة في مجموعة بيانات هائلة، فيما يتم برمجة هذه التقنيات، على استيعاب قدر كبير من المواضيع بما في ذلك تلك المتصلة بالقواعد، والارتباطات الواقعية، وتحليل المشاعر، وترجمة اللغة.

ويشير التقرير إلى أن التدريب المسبق ليس كافيًا لبناء روبوت محادثة مفيد، أو مساعد دفاعي للقيادة والسيطرة بل المواءمة لتحقيق التوازن بين التدريب المسبق لهذه النماذج اللغوية الكبيرة مع الاعتبارات الإنسانية الأخرى الأكثر دقة بما في ذلك ما إذا كانت هذه الاستجابات مفيدة أم ضارة وهو أمر رأت المجلة أن تحقيقه صعب.

وأوضح مقال “فورين أفيرز” بأن برنامج الدردشة الآلي الذي يمتثل دائمًا لطلبات المستخدم مثل تقديم المشورة حول كيفية صنع قنبلة ما، ليس برنامجًا ضارًا، ولكن إذا رفض معظم استفسارات المستخدم، فهو برنامج غير مفيد ويجب على المطورين إيجاد طريقة لضغط الملخصات، بما في ذلك المعايير السلوكية والأخلاق، في مقاييس من أجل الضبط الدقيق.

لاعب محفوف بالمخاطر

وتقول المجلة إن هذه النماذج اللغوية العملاقة يمكنها القيام بمهام عسكرية تتطلب معالجة كميات هائلة من البيانات في جداول زمنية قصيرة جدًا، ما يعني أن الجيوش قد ترغب في استخدامها لتعزيز عملية صنع القرار أو لتبسيط الوظائف البيروقراطية.

وأضافت تقول: “يمكن لهذه النماذج أتمتة الكثير من السيناريوهات الحربية أو ألعاب الحرب والميزانية والتدريب”، فيما يمكن استخدامها أيضًا لتجميع المعلومات الاستخبارية، وتعزيز التنبؤ بالتهديدات، وإنشاء توصيات الاستهداف أثناء الحرب أو الأزمات.

وتؤكد المجلة بأن الأمر الأكثر أهمية بالنسبة للعمليات اليومية للجيوش، هو أن هذه التقنيات قد تكون قادرة على أتمتة المهام العسكرية الشاقة بما في ذلك السفر والخدمات اللوجستية وتقييمات الأداء وهي مهام لا يمكن ضمان نجاحها.

وتابعت تقول: “إن ردّات فعل هذه النماذج اللغوية الكبيرة تختلف باختلاف البيانات التي تم تدريبها عليها والاختيارات التي اتخذها مصمموها أثناء الضبط الدقيق لتفضيلاتهم”.

وكشفت المجلة عن أن نماذج الذكاء الاصطناعي تلك اختارت التصعيد في المهام العسكرية وأظهرت تفضيلًا لسباقات التسلح، والصراع، وحتى استخدام الأسلحة النووية وعندما تم اختبار إحدى هذه النماذج التي لم يتم ضبطها بدقة، فقد أدت إلى أعمال فوضوية واستخدام الأسلحة النووية.

وأكدت بأنه وعلى الرغم من رغبة الجيوش في استخدام هذه النماذج اللغوية الكبيرة وغيرها من أدوات صنع القرار المدعومة بالذكاء الاصطناعي، إلا أن هناك قيودا ومخاطر حقيقية تتعلق باستخدامها.

وتابعت تقول: “قبل كل شيء، تحتاج تلك الجيوش التي تعتمد على هذه التقنيات لاتخاذ القرارات إلى فهم أفضل لكيفية عمل تلك التقنيات وأهمية الاختلافات في تصميمها وتنفيذها وهو ما يتطلب تدريبًا كبيرًا لمستخدميها وقدرة على تقييم البيانات الأساسية التي تجعل من هذه التقنيات تعمل”.

اترك رد

Your email address will not be published.