AI بالعربي – متابعات
تتصاعد المخاوف العالمية من دور الذكاء الاصطناعي داخل الأنظمة العسكرية النووية. ويرى الخبراء أن الخطر الحقيقي لا يرتبط بسيناريوهات أفلام الخيال العلمي، بل بطريقة فهم البشر للأنظمة الذكية التي تدعم قراراتهم.
ويشير تقرير نشره موقع “فوكس” إلى أن العلاقة بين الذكاء الاصطناعي والمنظومة النووية تتطور بسرعة.
صورة هوليوودية صنعت الخوف لكن الواقع أكثر تعقيدًا
قدّمت أفلام مثل “Terminator” و”WarGames” تصورًا مبالغًا فيه عن ذكاء اصطناعي يطلق الصواريخ النووية. لكن التقارير تكشف أن الذكاء الاصطناعي موجود داخل المنظومة النووية الأميركية منذ مشروع مانهاتن. وما يزال الغموض يحيط بحجم دوره داخل تلك الأنظمة.
الخطر الحقيقي ليس التمرّد بل الفهم الخاطئ
يتخوف الناس من أن يسيطر الذكاء الاصطناعي على قرار الإطلاق النووي. لكن الخطر الأبرز يكمن في اعتماد القادة على استنتاجات غير مفهومة بالكامل.
وتعمل واشنطن على تحديث ضخم لمنظومتها النووية، مع دمج أدوات تحليل البيانات المعتمدة على الذكاء الاصطناعي. وقد يدفع ضغط الوقت القادة للاعتماد على تلك الأدوات دون فهم طريقة تفكيرها.
ثغرات تقنية قد تقود إلى قرارات خطأ
حتى عام 2019، اعتمدت أنظمة نووية أميركية على أقراص مرنة قديمة لحمايتها من الاختراق.
لكن إدخال الذكاء الاصطناعي يفتح أبوابًا جديدة للمخاطر، مثل الأخطاء التقنية، والهجمات السيبرانية، وضخ بيانات مضللة. وقد يؤدي هذا إلى قرارات تصعيدية خلال أزمات حادة.
حوادث تاريخية أنقذ فيها البشر العالم من كارثة
تُظهر مراجعة التاريخ النووي أن الأخطاء التقنية حدثت أكثر من مرة. وفي عام 1979 تلقّى مستشار الأمن القومي إنذارًا خاطئًا بهجوم صاروخي سوفييتي.
وفي حادثة أخرى، رفض الضابط السوفييتي ستانيسلاف بيتروف تنفيذ بروتوكول إطلاق انتقامي بعد إنذار خطأ. وأنقذ قراره العالم من حرب نووية غير مقصودة.
أنظمة الذكاء الاصطناعي قد تتصرف بعدوانية أكبر من البشر
تشير اختبارات عسكرية إلى أن بعض نماذج الذكاء الاصطناعي تميل إلى قرارات تصعيدية. ولا يملك الذكاء الاصطناعي خوفًا أو إحساسًا بالمسؤولية الأخلاقية. وهذا ما يجعله أكثر ميلًا لاتخاذ خطوات خطرة خلال محاكاة سيناريوهات حساسة.
إبعاد الذكاء الاصطناعي عن المجال النووي أصبح مستحيلاً
أصبح الذكاء الاصطناعي جزءًا أساسيًا من البنية النووية في دول عدة. ولا يمكن الاستغناء عنه بسبب قدرته على تحليل البيانات بسرعة.
لكن المشكلة الكبرى تكمن في زيادة احتمال اتخاذ قرار خطأ تحت ضغط الوقت، وليس في ذكاء الآلة وحده.
السلاح النووي هو المشكلة العميقة وليست الخوارزميات
تكشف المخاوف الحالية أن الخطر يرتبط بامتلاك البشر لسلاح نووي يمكن تفعيله في دقائق. ويزيد الذكاء الاصطناعي مستوى التعقيد، ويرفع احتمال سوء الفهم. ولا توجد مؤشرات على أن الذكاء الاصطناعي سيطلق حربًا نووية بمفرده، لكنه قد يجعل الخطأ البشري أكثر تأثيرًا.








