ملحمة عصر الذكاء الاصطناعي “3 من 3”

24
جوزيف س. ناي الابن
سيكون للذكاء الاصطناعي تأثير كبير في المنافسة العسكرية والحروب، إضافة إلى المنافسة الاقتصادية، على حد تعبير مؤلفي الكتاب: إن “إدخال المنطق غير البشري إلى الأنظمة العسكرية من شأنه أن يحول الاستراتيجية”. عندما تنشر أنظمة الذكاء الاصطناعي القائمة على التعلم الآلي التوليدي ضد بعضها بعضا، فقد يصبح من الصعب أن يتوقع البشر نتائج التفاعل الجاري فيما بينها. وهذا من شأنه أن يزيد من قيمة السرعة، والعمق، والقدرة على التحمل.
وعلى هذا فإن الذكاء الاصطناعي سيجعل الصراعات أكثر حدة ويجعلنا أقل قدرة على التنبؤ بمساراتها. وسيكون سطح الهجوم في المجتمعات الرقمية الشبكية شاسعا إلى الحد الذي يصبح معه المشغلون من البشر عاجزين عن الدفاع يدويا. وستعمل أنظمة الأسلحة الفتاكة التي تتمتع بالاستقلالية التشغيلية والتي تختار الأهداف وتلتحم معها على الحد من قدرة التدخل البشري في الوقت المناسب. ورغم أننا قد نسعى جاهدين لوضع العنصر البشري “في الحلقة” أو “على الحلقة”، فإن حوافز اتخاذ التدابير الاستباقية والتصعيد المبكر ستكون قوية. وستصبح إدارة الأزمات أشد صعوبة.
لا بد أن تشجع هذه المخاطر الحكومات على تطوير المشاورات واتفاقيات الحد من التسلح، ولكن ليس من الواضح بعد كيف قد يبدو الحد من التسلح بالذكاء الاصطناعي. على النقيض من الأسلحة النووية والتقليدية ــ وهي كبيرة الحجم، ومرئية، وثقيلة، ويمكن إحصاؤها ــ فإن التحقق من أسراب الطائرات المسيرة ذاتيا أو الطوربيدات التي تعمل بالذكاء الاصطناعي أصعب كثيرا، كما أن الخوارزميات التي توجهها أعظم قدرة على المراوغة.
سيكون من الصعب تقييد تطوير قدرات الذكاء الاصطناعي في عموم الأمر، وذلك نظرا لأهمية التكنولوجيا ومدى انتشارها في كل مكان للاستخدامات المدنية. مع ذلك، ربما لا يزال من الممكن القيام بشيء حيال قدرات الاستهداف العسكري. الواقع أن الولايات المتحدة تميز بالفعل بين الأسلحة التي تدعم الذكاء الاصطناعي وأسلحة الذكاء الاصطناعي التي تعمل بشكل مستقل. فالأولى أكثر دقة وفتكا لكنها لا تزال تحت سيطرة البشر، أما الأخرى فقد تتخذ قرارات قاتلة دون مشغلين بشريين. كما تزعم الولايات المتحدة أنها لن تسعى إلى امتلاك النوع الثاني.
علاوة على ذلك، كانت الأمم المتحدة عاكفة على دراسة قضية إنشاء معاهدة دولية جديدة لحظر مثل هذه الأسلحة. ولكن هل توافق جميع الدول على مثل هذه المعاهدة؟ وكيف يمكن التحقق من الامتثال لها؟ نظرا إلى قدرة التعلم التي تتمتع بها أنظمة الذكاء الاصطناعي التوليدي، فهل تتطور الأسلحة على النحو الذي يجعلها قادرة على التهرب من القيود؟ على أية حال، ستكون الجهود المبذولة لتخفيف الاندفاع نحو التلقائية الآلية على جانب عظيم من الأهمية. وبطبيعة الحال، ينبغي عدم السماح لهذه التلقائية بالاقتراب من أنظمة الأسلحة النووية على الإطلاق.
على الرغم من كل ما تضمه صفحات هذا الكتاب البارع من وضوح الفـكر والحكمة، أتمنى لو كان المؤلفون اصطحبونا إلى أبعاد أكبر في اقتراح الحلول للمشكلات المتعلقة بالكيفية التي قد يتمكن بها البشر من التحكم في الذكاء الاصطناعي سواء في الداخل أو الخارج. إنهم يشيرون إلى أن الذكاء الاصطناعي هش لأنه يفتقر إلى الوعي الذاتي. إنه ليس نظاما واعيا ولا يعرف ما لا يعرفه. وعلى الرغم من تألقه في التفوق على البشر في بعض المساعي والأنشطة، فإنه عاجز عن تحديد وتجنب الأخطاء الفادحة التي قد تكون واضحة لأي طفل. يعرض كازيو إيشيجورو، الروائي الحائز جائزة نوبل، لهذه القضية بطريقة درامية بارعة في روايته “كلارا والشمس”.
يلاحظ كيسنجر، وشميت، وهوتنلوشر أن عجز الذكاء الاصطناعي عن التحقق من الأخطاء الواضحة من تلقاء ذاته يؤكد أهمية تطوير اختبار يسمح للبشر بوضع الحدود، ومراجعة مسارات العمل المقترحة، وبناء المرونة في الأنظمة في حالة فشل الذكاء الاصطناعي. وينبغي للمجتمعات أن تمتنع تماما عن السماح بتوظيفه في الأنظمة إلا بعد أن يثبت منشئوه جدارته بالثقة من خلال عمليات الاختبار. كما كتب مؤلفو الكتاب: “سيكون تطوير برامج الشهادات المهنية، ومراقبة الامتثال، والإشراف على الذكاء الاصطناعي ــ وخبرات المراجعة والتدقيق التي يتطلبها التنفيذ ــ مشروعا مجتمعيا بالغ الأهمية”.
لتحقيق هذه الغاية، يجب أن تعتمد صرامة الإدارة التنظيمية على مدى خطورة النشاط. فيجب أن تكون أنظمة الذكاء الاصطناعي التي تقود السيارات خاضعة لقدر أعظم من الإشراف مقارنة بأنظمة الذكاء الاصطناعي التي تستخدمها منصات الترفيه مثل TikTok.
اترك رد

Your email address will not be published.