روبوتات الذكاء الاصطناعي “القاتلة” تهدد الأمن العالمي

9

AI بالعربي – متابعات

تم التأكيد مجددًا على أن التهديد الذي تمثله أسلحة الذكاء الاصطناعي المستقلة والحاجة إلى التعاون الدولي للتخفيف من احتمالات “الروبوتات القاتلة للذكاء الاصطناعي”، وذلك خلال مؤتمر “الإنسانية على مفترق الطرق: أنظمة الأسلحة المستقلة وتحدي التنظيم”، والذي عقد مؤخرًا في فيينا، بالنمسا.

وأكد المشاركون، على أن السماح للذكاء الاصطناعي بالتحكم في أنظمة الأسلحة قد يعني تحديد الأهداف وضربها وقتلها دون تدخل بشري، وهذا يثير أسئلة قانونية وأخلاقية خطيرة.

وفي تسليط الضوء على خطورة الوضع، قال وزير خارجية النمسا ألكسندر شالينبيرج: “هذه هي لحظة أوبنهايمر لجيلنا”، هذا في الوقت الذي تستخدم فيه الجيوش بجميع أنحاء العالم بالفعل الطائرات بدون طيار، والذكاء الاصطناعي على نطاق واسع.

الاستخدام الحالي للروبوتات القاتلة AI

ويقول ويلسون جونز، محلل الدفاع في GlobalData، لـ Army Technology: “إن استخدام الطائرات بدون طيار في الصراع الحديث من قبل روسيا وأوكرانيا، ومن قبل الولايات المتحدة في حملات الضربات المستهدفة في أفغانستان وباكستان، وكما تم الكشف عنه مؤخرًا في الشهر الماضي، كجزء من برنامج لافندر الإسرائيلي، يظهر أن إن قدرة الذكاء الاصطناعي على معالجة المعلومات يتم استخدامها بالفعل من قبل جيوش العالم لزيادة القوة الضاربة.

وقال: تضاعف “كونجسبيرج” من توسعها في نظام الدفاع الصاروخي للبحرية الملكية، حيث تطلب سلاحًا مضادًا للغواصات طويل المدى لمقاتلاتها السطحية سلطت التحقيقات التي أجراها مكتب الصحافة الاستقصائية في حرب الطائرات بدون طيار الأمريكية الضوء على الغارات الجوية المتكررة التي شنها الجيش الأمريكي مما أسفر عن مقتل مدنيين في باكستان وأفغانستان والصومال واليمن”.

تهديد للأمن العالمي

واستخدام الذكاء الاصطناعي بهذه الطريقة يؤكد على الحاجة إلى تنظيم التكنولوجيا في أنظمة الأسلحة، وهنا يشرح الدكتور ألكسندر بلانشارد، كبير الباحثين في برنامج حوكمة الذكاء الاصطناعي في معهد ستوكهولم الدولي لأبحاث السلام “SIPRI”، وهو مركز أبحاث مستقل يركز على الأمن العالمي، لـ Army Technology، قائلا: “إن استخدام الذكاء الاصطناعي في أنظمة الأسلحة، خاصة عند استخدامه إن الاستهداف يثير أسئلة جوهرية حولنا نحن البشر، وعلاقتنا بالحرب، وعلى الأخص افتراضاتنا حول كيفية ممارسة العنف في النزاعات المسلحة.

وأضاف: “يغير الذكاء الاصطناعي الطريقة التي تختار بها الجيوش الأهداف وتطبق القوة عليها. وتثير هذه التغييرات بدورها سلسلة من الأسئلة القانونية والأخلاقية والتشغيلية، ولكن القلق الأكبر هو الإنساني”.

وتابع: “هناك مخاوف كبيرة بين الكثيرين من أنه اعتمادًا على كيفية تصميم الأنظمة المستقلة واستخدامها، فإنها قد تعرض المدنيين وغيرهم من الأشخاص المحميين بموجب القانون الدولي لخطر أكبر. وذلك لأن أنظمة الذكاء الاصطناعي، خاصة عند استخدامها في بيئات مزدحمة، قد تتصرف بشكل غير متوقع، وقد تفشل في التعرف بدقة على الهدف ومهاجمة مدني، أو تفشل في التعرف على المقاتلين العاجزين عن القتال.

وفي توضيح لهذا الأمر، يشير جونز إلى أن مسألة كيفية تحديد الذنب يمكن أن تكون موضع تساؤل.

ويقول: “بموجب قوانين الحرب الحالية، هناك مفهوم مسؤولية القيادة”، وأضاف: “هذا يعني أن الضابط أو الجنرال أو أي قائد آخر مسؤول قانونًا عن تصرفات القوات الخاضعة لقيادته. إذا ارتكبت القوات جرائم حرب، يتحمل الضابط المسؤولية حتى لو لم يعطوا الأوامر، ويقع عبء الإثبات عليهم لإثبات أنهم بذلوا كل ما في وسعهم لمنع جرائم الحرب”.

اتفاقيات الحد من الأسلحة التاريخية

وهناك العديد من الاتفاقيات الدولية الكبرى تحد وتنظم استخدامات معينة للأسلحة. هناك حظر على استخدام الأسلحة الكيميائية، ومعاهدات عدم انتشار الأسلحة النووية، واتفاقية أسلحة تقليدية معينة، التي تحظر أو تقيد استخدام أنواع معينة من الأسلحة التي تعتبر أنها تسبب معاناة غير ضرورية أو غير مبررة للمقاتلين أو تؤثر على المدنيين بشكل عشوائي.

اترك رد

Your email address will not be published.