تصاعد المخاوف داخل الجيش الأميركي من الذكاء الاصطناعي

AI بالعربي – متابعات

تشهد المؤسسة العسكرية الأميركية حالة قلق متزايدة من تنامي قدرات الذكاء الاصطناعي، بعد أن أصبح جزءًا من أدوات اتخاذ القرار والعمليات القتالية الحديثة.

الذكاء الاصطناعي يثير الخوف في أروقة “البنتاغون”

كشفت ميكي أويانغ، نائبة مساعد وزير الدفاع للأمن السيبراني خلال إدارة الرئيس السابق جو بايدن، أن الذكاء الاصطناعي “يثير الخوف داخل البنتاغون”.

وأكدت أن بعض القادة يشعرون بالقلق من طريقة استخدام هذه التقنيات داخل المؤسسة العسكرية نفسها.

قرارات عسكرية تحت تأثير الخوارزميات

خلال السنوات الأخيرة، بدأ صناع السياسات العسكريون في اختبار أدوات الذكاء الاصطناعي لتقدير قدرتها على اتخاذ قرارات استراتيجية في أوقات النزاعات.

كما جرى دمجها في أنظمة الأسلحة المستقلة أو ما يُعرف بـ”الروبوتات القاتلة” التي تختار الأهداف وتحدد نوع السلاح المناسب بشكل لحظي.

وترى أويانغ أن هذه التجارب تحمل مخاطر كبيرة، إذ يمكن أن تؤدي إلى “اختراق البيانات الحساسة” أو إلى ما وصفته بـ”ذهان الذكاء الاصطناعي” نتيجة الإفراط في الاعتماد على الآلات في القرارات العسكرية.

خصوم داخل المؤسسة العسكرية

قالت أويانغ إن المخاوف لم تعد تقتصر على استخدام الخصوم الخارجيين للتقنية، بل تشمل أيضًا من داخل البنتاغون.

وأضافت: “كنا نقلق من استخدام الأعداء للتكنولوجيا، لكن يجب أن ننتبه إلى وجود خصوم داخليين قد يستغلون الأدوات نفسها لأغراض تضر بالمصالح الأميركية”.

الروبوتات القاتلة.. بين الكفاءة والخطر

تزايدت الأسئلة داخل المؤسسة العسكرية حول كيفية ضبط عمل الروبوتات القتالية، والتأكد من أنها لن تتجاوز الحدود الأخلاقية أو الميدانية.

وحذّرت أويانغ من أن الإفراط في الاعتماد على الأنظمة الذاتية قد يؤدي إلى نتائج “كارثية”، إذا لم تُضبط الخوارزميات بشكل صارم وواضح.

ChatGPT غير صالح للاستخدام العسكري

أوضحت أويانغ أن النماذج العامة المنتشرة مثل ChatGPT ليست مناسبة للأغراض العسكرية.

وأكدت أن الجيش الأميركي يحتاج إلى تطوير أدوات ذكاء اصطناعي خاصة به، تتوافق مع طبيعة عملياته الحساسة، مشددة على أن الاستخدام العسكري يختلف جذريًا عن المدني.

أبحاث وتمويل لتقنيات آمنة

بدأ البنتاغون فعليًا في توظيف الذكاء الاصطناعي ضمن مشاريع البحث والتطوير، مع دعوات متزايدة لتمويل بحوث متخصصة.

وتهدف هذه الجهود إلى فهم أفضل لآليات استخدام الذكاء الاصطناعي في دعم المهام الميدانية دون تعريض الأمن القومي للخطر.

خلاصة

يحاول الجيش الأميركي موازنة المكاسب التقنية مع المخاطر الأخلاقية والأمنية للذكاء الاصطناعي.

لكن التحدي الحقيقي، كما تقول أويانغ، هو “إدارة الذكاء قبل أن يُصبح هو من يديرنا”.

  • Related Posts

    ما هو الذكاء الاصطناعي المؤسسي وكيف يختلف؟

    AIبالعربي – متابعات الذكاء الاصطناعي المؤسسي هو تبني الشركات لمنصات ذكاء اصطناعي قابلة للتوسع لتحويل العمليات الأساسية واتخاذ القرارات. يتميز بالتكامل العميق مع أنظمة الشركة القائمة لتحقيق أهداف استراتيجية، وليس…

    ربط الذكاء الاصطناعي بأنظمة الأتمتة

    AIبالعربي – متابعات ربط الذكاء الاصطناعي بأنظمة الأتمتة هو عملية دمج قدرات التعلم الآلي والتحليل الذكي مع الأنظمة الآلية التقليدية لتحويلها إلى أنظمة مستقلة قادرة على التكيف واتخاذ القرارات. يؤدي…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    • نوفمبر 29, 2025
    • 611 views
    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    • نوفمبر 22, 2025
    • 639 views
    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    • نوفمبر 10, 2025
    • 743 views
    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    • نوفمبر 8, 2025
    • 825 views
    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    • أكتوبر 30, 2025
    • 811 views
    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    • أكتوبر 12, 2025
    • 907 views
    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر