كيف يستخدم البنتاجون الذكاء الاصطناعي كـ”آلة قتل”؟

AI بالعربي – متابعات

يسعى مطورو الذكاء الاصطناعي مثل “OpenAI” و”أنتروبيك” لتقديم تقنياتهم للجيش الأميركي، ورغم أن أدواتهم لا تُستخدم بذاتها كأسلحة قتل حاليًا، فإنها تُستخدم في تحسين كفاءة أدوات القتل التي تنتجها الولايات المتحدة لقهر خصومها.

الدكتورة رادا بلوم كبيرة مسؤولي الرقمنة والذكاء الاصطناعي في وزارة الدفاع الأميركية، في حديثها مع “تك كرانش“، أوضحت هذا بأن قالت إن البنتاجون يستخدم الذكاء الاصطناعي في تسريع تنفيذ “سلسلة القتل” العسكرية وليس كأسلحة قائمة بذاتها.

تُعرف عملية “سلسلة القتل”، بأنها التي تشمل تحديد وتتبُّع وحذف التهديدات، وذلك باستخدام تقنيات الذكاء الاصطناعي في مراحل التخطيط والتكتيك.

ومع ازدياد التعاون بين الشركات التقنية الكبرى مثل “OpenAI” و”أنتروبيك” و”ميتا” ووكالات الدفاع والاستخبارات الأميركية، فإن التساؤلات تتجلى حول مدى تقييد هذه الشركات لاستخدام تقنياتها في الأغراض العسكرية. إذ لا تسمح بعض هذه الشركات باستخدام نماذجها في تطوير أنظمة قد تُسبب ضررًا أو فقدانًا للحياة البشرية، وهو ما تغير في الفترة الأخيرة مع حاجة شركات الذكاء الاصطناعي إلى التمويلات الضخمة لمشروعات توسعها في تطوير أدواتها، وهو ما يبدو أن وزارة الدفاع تتكفل بجزء منه حاليًا في مقابل تطوير أسلحتها.

ترد بلوم على ذلك، فتقول إن البنتاجون يحرص على التزام سياسات الاستخدام الأخلاقي للذكاء الاصطناعي، مشيرةً إلى أنه لن يتم السماح لأي نظام بالتصرف بشكل مستقل دون إشراف بشري، لكن تصريحها هذا أيضًا يثير الجدل حول مفهوم “الاستقلالية” في الأنظمة الذاتية، بينما يفتح النقاش المتزايد حول مدى ضرورة أو خطورة السماح للأسلحة الذاتية المدعومة بالذكاء الاصطناعي باتخاذ قرارات الحياة والموت.

ورغم أن بعض الشركات التقنية قد تراجعت عن سياساتها بالتعاون مع الجيش الأميركي، فإن هذه القضية تظل محط اهتمام واسع في الأوساط التقنية والعسكرية على حد سواء، كما أنها تفرض تساؤلًا كبيرًا عن تفاصيل الحروب القادمة ومدى قدرتها على التدمير.

اترك رد

Your email address will not be published.