
AI بالعربي – متابعات
تشهد المؤسسة العسكرية الأميركية حالة قلق متزايدة من تنامي قدرات الذكاء الاصطناعي، بعد أن أصبح جزءًا من أدوات اتخاذ القرار والعمليات القتالية الحديثة.
الذكاء الاصطناعي يثير الخوف في أروقة “البنتاغون”
كشفت ميكي أويانغ، نائبة مساعد وزير الدفاع للأمن السيبراني خلال إدارة الرئيس السابق جو بايدن، أن الذكاء الاصطناعي “يثير الخوف داخل البنتاغون”.
وأكدت أن بعض القادة يشعرون بالقلق من طريقة استخدام هذه التقنيات داخل المؤسسة العسكرية نفسها.
قرارات عسكرية تحت تأثير الخوارزميات
خلال السنوات الأخيرة، بدأ صناع السياسات العسكريون في اختبار أدوات الذكاء الاصطناعي لتقدير قدرتها على اتخاذ قرارات استراتيجية في أوقات النزاعات.
كما جرى دمجها في أنظمة الأسلحة المستقلة أو ما يُعرف بـ”الروبوتات القاتلة” التي تختار الأهداف وتحدد نوع السلاح المناسب بشكل لحظي.
وترى أويانغ أن هذه التجارب تحمل مخاطر كبيرة، إذ يمكن أن تؤدي إلى “اختراق البيانات الحساسة” أو إلى ما وصفته بـ”ذهان الذكاء الاصطناعي” نتيجة الإفراط في الاعتماد على الآلات في القرارات العسكرية.
خصوم داخل المؤسسة العسكرية
قالت أويانغ إن المخاوف لم تعد تقتصر على استخدام الخصوم الخارجيين للتقنية، بل تشمل أيضًا من داخل البنتاغون.
وأضافت: “كنا نقلق من استخدام الأعداء للتكنولوجيا، لكن يجب أن ننتبه إلى وجود خصوم داخليين قد يستغلون الأدوات نفسها لأغراض تضر بالمصالح الأميركية”.
الروبوتات القاتلة.. بين الكفاءة والخطر
تزايدت الأسئلة داخل المؤسسة العسكرية حول كيفية ضبط عمل الروبوتات القتالية، والتأكد من أنها لن تتجاوز الحدود الأخلاقية أو الميدانية.
وحذّرت أويانغ من أن الإفراط في الاعتماد على الأنظمة الذاتية قد يؤدي إلى نتائج “كارثية”، إذا لم تُضبط الخوارزميات بشكل صارم وواضح.
ChatGPT غير صالح للاستخدام العسكري
أوضحت أويانغ أن النماذج العامة المنتشرة مثل ChatGPT ليست مناسبة للأغراض العسكرية.
وأكدت أن الجيش الأميركي يحتاج إلى تطوير أدوات ذكاء اصطناعي خاصة به، تتوافق مع طبيعة عملياته الحساسة، مشددة على أن الاستخدام العسكري يختلف جذريًا عن المدني.
أبحاث وتمويل لتقنيات آمنة
بدأ البنتاغون فعليًا في توظيف الذكاء الاصطناعي ضمن مشاريع البحث والتطوير، مع دعوات متزايدة لتمويل بحوث متخصصة.
وتهدف هذه الجهود إلى فهم أفضل لآليات استخدام الذكاء الاصطناعي في دعم المهام الميدانية دون تعريض الأمن القومي للخطر.
خلاصة
يحاول الجيش الأميركي موازنة المكاسب التقنية مع المخاطر الأخلاقية والأمنية للذكاء الاصطناعي.
لكن التحدي الحقيقي، كما تقول أويانغ، هو “إدارة الذكاء قبل أن يُصبح هو من يديرنا”.