معهد ستوكهولم يحذر من تطبيقات الذكاء الاصطناعي على التسلح النووي

20

AI بالعربي – “متابعات”

حذر خبراء “معهد ستوكهولم الدولي لبحوث السلام” SIBRI من تهديدات نووية محتملة مصاحبة للسباق المحموم بين القوى النووية في العالم وسعيها لتوظيف ابتكارات الذكاء الاصطناعي وتطبيقاتها المختلفة في مجالات السلاح النووي، وهو أمر رأى الخبراء أنه ينطوي على مخاطر وتداعيات سلبية على الاستقرار العالمي بتصاعد احتمالات استخدام السلاح النووي.

وقال الخبراء – في تقرير للمعهد صدر اليوم الثلاثاء، إن التطورات الأخيرة في مجالات الذكاء الاصطناعي ، لاسيما تطبيقات التعلم والآلي والذاتي، ربما سيفتح الباب واسعاً في عالم التقنيات النووية إلى استخدام قدرات الذكاء الاصطناعي في القطاعات المتعلقة بالأسلحة النووية بدءا من وسائل الإنذار المبكر وصولاً إلى القيادة والمراقبة وتزويد الأسلحة.

وأشار خبراء “سيبري” إلى أن تقنيات التعلم الآلي والذاتي ليست بالجديدة، غير أن تطوراتها وابتكاراتها الأخيرة في تلك المجالات مكنت من إجراء تحسينات في الأنظمة المدارة آليا التي يمكنها إيجاد حلول لمشكلات عويصة ومعقدة، أو القيام بمهام كانت تعتمد في السابق على الإدراك البشري أو تتطلب تدخلاً للعنصر الآدمي.

وقال كبير الباحثين المشاركين في إعداد التقرير فينسينت بولانين: “السؤال المحوري هنا ليس هو هل سيتم تبني تلك التطورات الأخيرة في الأغراض المرتبطة بالسلاح النووي؟ لكنه متى، وكيف، ومن سيتكفل بذلك؟”.

ويجيب بولانين على تلك التساؤلات قائلاً: “على أي حال، فإن إجابات تلك الأسئلة في المرحلة الحالية ستكون عبارة عن تكهنات فقط. فالدول المالكة لأسلحة نووية لا تتمتع بالشفافية بشأن الدور الحالي أو المستقبلي لاستخدامات الذكاء الاصطناعي في القوة النووية التي تمتلكها”.

ومع ذلك، يظهر الباحثون أن جميع الدول التي تمتلك أسلحة نووية اتخذت فعليا من تقنيات الذكاء الاصطناعي أولوية لها، فيما يصر العديد منها على أن تصبح رائدة في هذا المجال، ويحذر التقرير أن مثل هذا التوجه قد يؤثر سلبا على العلاقات الاستراتيجية، حتى قبيل نضج أو نشر أو تطوير التطبيقات المرتبطة بالأسلحة النووية.

ويؤكد معدو التقرير أن هرولة الدول المالكة لأسلحة نووية نحو تبني تكنولوجيات الذكاء الاصطناعي لخدمة الأغراض العسكرية النووية بوجه عام والأغراض المرتبطة بالخدمات النووية، سيكون تصرفاً طائشاً لا يحمد عقباه، لافتين إلى أن التبني غير الناضج لتطبيقات الذكاء الاصطناعي سيزيد من مخاطر تعرض الأسلحة النووية والقدرات المرتبطة للفشل أو أن يُساء استخدامها بوسائل قد تؤدي إلى حادثة أو تصعيد لأزمة أو نزاع قد يتطور إلى صراع نووي.

وتقول الخبيرة البارزة في شؤون التسليح ونزع التسلح في معهد “سيبري”، لورا سالمان: “على أي حال، ليس من المرجح أن تكون تكنولوجيات الذكاء الاصطناعي ، في حد ذاتها هي الباعث لاستخدام الأسلحة النووية”، لافتة إلى أن هناك مسببات أخرى مثل “التوجهات الإقليمية، والتوترات الجيوسياسية، وإساءة فك الشفرات وتفسيرها، يتعين أن تؤخذ في الاعتبار لاستعياب العوامل التي يمكن تسهم بها تكنولوجيات الذكاء الاصطناعي في إثارة أزمة لتصل إلى مستوى نووي”.

وأوصى التقرير بأن تبني الشفافية ومعايير بناء الثقة على صعيد تطورات وابتكارات الذكاء الاصطناعي واستخداماته وطنياً سيساعد في تقليص مثل هذه المخاطر، داعيا إلى ضرورة أن توضع تحديات استخدام الذكاء الاصطناعي كأولوية في أي نقاشات تتناول تقليص المخاطر النووية مستقبلاً.
وقال كبير الباحثين في برنامج نزع الأسلحة النووية ومراقبة التسلح وعدم نشر السلاح النووي في معهد “سيبري”، بيتر توبيشاكانوف: “من الأهمية بمكان ألا نبالغ في تقدير المخاطر التي تنطوي عليها تطبيقات الذكاء الاصطناعي بالنسبة للاستقرار الاستراتيجي والمخاطر النووية. لكن يتعين علينا ألا نهون من شأن مخاطر عدم التحرك في هذا الشأن”.

وتابع قائلاً: “بينما لا يزال الحديث عن المخاطر المرتبطة بالذكاء الاصطناعي أمرا جديدا، فإنه ليس من السابق لأوانه بالنسبة للدول المالكة للسلاح النووي والمجتمع الدولي السعي إلى استكشاف حلول وعلاجات تعمل على الحد من المخاطر التي ينطوي عليها استخدام تطبيقات الذكاء الاصطناعي في منظومات الأسلحة النووية وانعكاساتها على السلم والاستقرار”.

واقترح التقرير عددا من التوصيات والمعايير التي يتعين على الدول المالكة للأسلحة النووية اتخاذها كالتعاون بشأن إيجاد حلول جوهرية لإشكالات تأمين وسلامة الذكاء الاصطناعي، والمشاركة في استشراف استخدامات الذكاء الاصطناعي لمراقبة التسلح، والموافقة على قيود واضحة على استخدام تقنيات الذكاء الاصطناعي في القوى النووية.

اترك رد

Your email address will not be published.