تصاعد المخاوف داخل الجيش الأميركي من الذكاء الاصطناعي

AI بالعربي – متابعات

تشهد المؤسسة العسكرية الأميركية حالة قلق متزايدة من تنامي قدرات الذكاء الاصطناعي، بعد أن أصبح جزءًا من أدوات اتخاذ القرار والعمليات القتالية الحديثة.

الذكاء الاصطناعي يثير الخوف في أروقة “البنتاغون”

كشفت ميكي أويانغ، نائبة مساعد وزير الدفاع للأمن السيبراني خلال إدارة الرئيس السابق جو بايدن، أن الذكاء الاصطناعي “يثير الخوف داخل البنتاغون”.

وأكدت أن بعض القادة يشعرون بالقلق من طريقة استخدام هذه التقنيات داخل المؤسسة العسكرية نفسها.

قرارات عسكرية تحت تأثير الخوارزميات

خلال السنوات الأخيرة، بدأ صناع السياسات العسكريون في اختبار أدوات الذكاء الاصطناعي لتقدير قدرتها على اتخاذ قرارات استراتيجية في أوقات النزاعات.

كما جرى دمجها في أنظمة الأسلحة المستقلة أو ما يُعرف بـ”الروبوتات القاتلة” التي تختار الأهداف وتحدد نوع السلاح المناسب بشكل لحظي.

وترى أويانغ أن هذه التجارب تحمل مخاطر كبيرة، إذ يمكن أن تؤدي إلى “اختراق البيانات الحساسة” أو إلى ما وصفته بـ”ذهان الذكاء الاصطناعي” نتيجة الإفراط في الاعتماد على الآلات في القرارات العسكرية.

خصوم داخل المؤسسة العسكرية

قالت أويانغ إن المخاوف لم تعد تقتصر على استخدام الخصوم الخارجيين للتقنية، بل تشمل أيضًا من داخل البنتاغون.

وأضافت: “كنا نقلق من استخدام الأعداء للتكنولوجيا، لكن يجب أن ننتبه إلى وجود خصوم داخليين قد يستغلون الأدوات نفسها لأغراض تضر بالمصالح الأميركية”.

الروبوتات القاتلة.. بين الكفاءة والخطر

تزايدت الأسئلة داخل المؤسسة العسكرية حول كيفية ضبط عمل الروبوتات القتالية، والتأكد من أنها لن تتجاوز الحدود الأخلاقية أو الميدانية.

وحذّرت أويانغ من أن الإفراط في الاعتماد على الأنظمة الذاتية قد يؤدي إلى نتائج “كارثية”، إذا لم تُضبط الخوارزميات بشكل صارم وواضح.

ChatGPT غير صالح للاستخدام العسكري

أوضحت أويانغ أن النماذج العامة المنتشرة مثل ChatGPT ليست مناسبة للأغراض العسكرية.

وأكدت أن الجيش الأميركي يحتاج إلى تطوير أدوات ذكاء اصطناعي خاصة به، تتوافق مع طبيعة عملياته الحساسة، مشددة على أن الاستخدام العسكري يختلف جذريًا عن المدني.

أبحاث وتمويل لتقنيات آمنة

بدأ البنتاغون فعليًا في توظيف الذكاء الاصطناعي ضمن مشاريع البحث والتطوير، مع دعوات متزايدة لتمويل بحوث متخصصة.

وتهدف هذه الجهود إلى فهم أفضل لآليات استخدام الذكاء الاصطناعي في دعم المهام الميدانية دون تعريض الأمن القومي للخطر.

خلاصة

يحاول الجيش الأميركي موازنة المكاسب التقنية مع المخاطر الأخلاقية والأمنية للذكاء الاصطناعي.

لكن التحدي الحقيقي، كما تقول أويانغ، هو “إدارة الذكاء قبل أن يُصبح هو من يديرنا”.

  • Related Posts

    لماذا تكبّدت الشركات خسائر بعد تبنّي الذكاء الاصطناعي؟

    AI بالعربي – متابعات كشف استطلاع أجرته شركة “إي.واي” أن معظم الشركات الكبرى التي بدأت في اعتماد الذكاء الاصطناعي تكبّدت خسائر مالية أولية، نتيجة مشكلات تتعلق بعدم الامتثال أو التحيز…

    بعد “ChatGPT”.. هل تقود “ميرا موراتي” ثورة جديدة في وادي السيليكون؟

    AI بالعربي – متابعات في خطوة لافتة تعكس الثقة المتزايدة في الكفاءات القيادية بمجال الذكاء الاصطناعي، نجحت المهندسة والمبتكرة ميرا موراتي في جذب واحدة من أكبر جولات التمويل في وادي…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    • أكتوبر 1, 2025
    • 197 views
    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    • سبتمبر 29, 2025
    • 213 views
    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    • سبتمبر 26, 2025
    • 138 views
    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

    • سبتمبر 24, 2025
    • 159 views
    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

    الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

    • سبتمبر 18, 2025
    • 96 views
    الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

    الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق

    • سبتمبر 15, 2025
    • 103 views
    الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق