تصاعد المخاوف داخل الجيش الأميركي من الذكاء الاصطناعي

AI بالعربي – متابعات

تشهد المؤسسة العسكرية الأميركية حالة قلق متزايدة من تنامي قدرات الذكاء الاصطناعي، بعد أن أصبح جزءًا من أدوات اتخاذ القرار والعمليات القتالية الحديثة.

الذكاء الاصطناعي يثير الخوف في أروقة “البنتاغون”

كشفت ميكي أويانغ، نائبة مساعد وزير الدفاع للأمن السيبراني خلال إدارة الرئيس السابق جو بايدن، أن الذكاء الاصطناعي “يثير الخوف داخل البنتاغون”.

وأكدت أن بعض القادة يشعرون بالقلق من طريقة استخدام هذه التقنيات داخل المؤسسة العسكرية نفسها.

قرارات عسكرية تحت تأثير الخوارزميات

خلال السنوات الأخيرة، بدأ صناع السياسات العسكريون في اختبار أدوات الذكاء الاصطناعي لتقدير قدرتها على اتخاذ قرارات استراتيجية في أوقات النزاعات.

كما جرى دمجها في أنظمة الأسلحة المستقلة أو ما يُعرف بـ”الروبوتات القاتلة” التي تختار الأهداف وتحدد نوع السلاح المناسب بشكل لحظي.

وترى أويانغ أن هذه التجارب تحمل مخاطر كبيرة، إذ يمكن أن تؤدي إلى “اختراق البيانات الحساسة” أو إلى ما وصفته بـ”ذهان الذكاء الاصطناعي” نتيجة الإفراط في الاعتماد على الآلات في القرارات العسكرية.

خصوم داخل المؤسسة العسكرية

قالت أويانغ إن المخاوف لم تعد تقتصر على استخدام الخصوم الخارجيين للتقنية، بل تشمل أيضًا من داخل البنتاغون.

وأضافت: “كنا نقلق من استخدام الأعداء للتكنولوجيا، لكن يجب أن ننتبه إلى وجود خصوم داخليين قد يستغلون الأدوات نفسها لأغراض تضر بالمصالح الأميركية”.

الروبوتات القاتلة.. بين الكفاءة والخطر

تزايدت الأسئلة داخل المؤسسة العسكرية حول كيفية ضبط عمل الروبوتات القتالية، والتأكد من أنها لن تتجاوز الحدود الأخلاقية أو الميدانية.

وحذّرت أويانغ من أن الإفراط في الاعتماد على الأنظمة الذاتية قد يؤدي إلى نتائج “كارثية”، إذا لم تُضبط الخوارزميات بشكل صارم وواضح.

ChatGPT غير صالح للاستخدام العسكري

أوضحت أويانغ أن النماذج العامة المنتشرة مثل ChatGPT ليست مناسبة للأغراض العسكرية.

وأكدت أن الجيش الأميركي يحتاج إلى تطوير أدوات ذكاء اصطناعي خاصة به، تتوافق مع طبيعة عملياته الحساسة، مشددة على أن الاستخدام العسكري يختلف جذريًا عن المدني.

أبحاث وتمويل لتقنيات آمنة

بدأ البنتاغون فعليًا في توظيف الذكاء الاصطناعي ضمن مشاريع البحث والتطوير، مع دعوات متزايدة لتمويل بحوث متخصصة.

وتهدف هذه الجهود إلى فهم أفضل لآليات استخدام الذكاء الاصطناعي في دعم المهام الميدانية دون تعريض الأمن القومي للخطر.

خلاصة

يحاول الجيش الأميركي موازنة المكاسب التقنية مع المخاطر الأخلاقية والأمنية للذكاء الاصطناعي.

لكن التحدي الحقيقي، كما تقول أويانغ، هو “إدارة الذكاء قبل أن يُصبح هو من يديرنا”.

  • Related Posts

    ما هو “التعلم العميق”.. ولماذا أحدث هذه القفزة؟

    AIبالعربي – متابعات التعلم العميق هو فرع من الذكاء الاصطناعي يعتمد على شبكات عصبية متعددة الطبقات قادرة على تعلم الأنماط المعقدة من البيانات تلقائيًا، وقد أحدث قفزة لأنه حسّن دقة…

    أخطاء شائعة في بناء نماذج Machine Learning وكيفية تجنبها

    AIبالعربي – متابعات أكثر الأخطاء شيوعًا في بناء نماذج Machine Learning تشمل سوء إعداد البيانات، وتسرب المعلومات، واختيار نموذج غير مناسب، وتقييم الأداء بشكل خاطئ، ما يؤدي إلى نتائج مضللة…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    • نوفمبر 29, 2025
    • 338 views
    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    • نوفمبر 22, 2025
    • 363 views
    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    • نوفمبر 10, 2025
    • 476 views
    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    • نوفمبر 8, 2025
    • 528 views
    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    • أكتوبر 30, 2025
    • 519 views
    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    • أكتوبر 12, 2025
    • 627 views
    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر