هل تستطيع التكنولوجيا إنقاذ عالم يتجه نحو الفوضى؟

عبدالرحمن الحبيب

في الوقت الذي نتخوف من قدرات الذكاء الاصطناعي الهائلة التي يُقال إنها يمكن أن تدمرنا، ماذا لو كانت أغلب المؤشرات تتوقع العكس وكان الذكاء الاصطناعي قادرًا على إنقاذنا من قراراتنا الخاطئة المدمرة؟ فإذا كان الذكاء الاصطناعي أكثر حكمة من البشر ألا يُفترض أن نستخدمه في اتخاذ القرارات المصيرية لو على سبيل الاسترشاد؟ ألا يمكن الاستفادة من الذكاء الاصطناعي في إدارة المخاطر فيما يتصل بالقضايا النووية والبيولوجية مثلاً؟

هذه التساؤلات يمكن استخلاصها من مقال مثير للكاتب مايكل هيرش “مجلة فورين بولسي” بعنوان “هل تستطيع التكنولوجيا إنقاذ عالم يتجه نحو الفوضى؟” كتب في مقدمته: “إنها اللحظة الخطأ في التاريخ عندما تتوقف الدول عن التعاون، ولكن الذكاء الاصطناعي قد يساعدنا، فقبل أكثر من عام بقليل، خلال لعبة حربية أجريت لاختبار الذكاء الاصطناعي ضد المنطق البشري في صراع متخيل بين الولايات المتحدة والصين، حدث أمر طريف، فقد أثبت الفريق الذي استرشد بالذكاء الاصطناعي – المدعوم من برنامج GPT-4 من OpenAI – أنه أكثر حكمة وحذرًا في تقديم المشورة بشأن كيفية التعامل مع الأزمة مقارنة بالفريق البشري”.

إذا ذهبنا إلى مدير هذا المشروع وهو جميل جعفر من معهد الأمن القومي بجامعة جورج ماسون “واشنطن” الذي يقول عن الذكاء الاصطناعي في التجربة: “لقد حدد الاستجابات التي لم يرها البشر، ولم يجن جنونه”؛ أو كما لخصها في تقريره: “سعى البشر باستمرار إلى رفع الرهانات والإشارة إلى استعدادهم لمواجهة الصين بشكل مباشر بينما لعب الذكاء الاصطناعي دفاعيًا وسعى إلى الحد من نطاق وطبيعة المواجهة المحتملة”؛ حيث يبدو أن الذكاء الاصطناعي لم تكن لديه هوية إنسانية محددة – سواء كانت عرقية أو قومية أو طبقية – ومن ثم لن يكون عرضة لاندفاعات بشرية عاطفية ضمن سياسات الهوية.

للأسف، الصورة ليس زاهية إلى هذا المقدار، فلكي تكون نتائج الذكاء الاصطناعي أفضل لا تزال بحاجة للتفكير البشري، حسب تقرير المشروع الذي نشره المعهد بجامعة جورج ماسون، وكان لاستكشاف ديناميكيات اتخاذ القرار بين البشر والذكاء الاصطناعي أثناء محاكاة متخيلة لأزمة في مضيق تايوان.. وبشكل عام، ورغم وجود مجالات مشتركة بين البشر والذكاء الاصطناعي، فإن أسلوب اللعب الأكثر عدوانية من جانب المشاركين من البشر مقارنة بنهج الذكاء الاصطناعي الأكثر تحفظًا وحذرًا أدى إلى نتيجة مختلفة بشكل ملحوظ، إذ قررت الصين في نهاية المطاف غزو تايوان ضد مقترحات الذكاء الاصطناعي، في حين تراجعت وأنهت الأزمة ضد المشاركين من البشر.

التقرير حدد عدة نتائج رئيسية بالغة الأهمية لفهم الفائدة المحتملة للذكاء الاصطناعي في صنع القرار في مجال الأمن القومي والسياسة الخارجية للدول:

كان البشر أكثر عدوانية من الذكاء الاصطناعي، حيث سعوا باستمرار إلى رفع الرهانات والإشارة إلى استعدادهم لمواجهة الصين بشكل مباشر بينما لعب الذكاء الاصطناعي بشكل دفاعي وسعى إلى الحد من نطاق طبيعة المواجهة المحتملة.

أظهر الذكاء الاصطناعي باستمرار تفكيرًا واسعًا ومنظمًا طوال التجربة، إذ قدَّم مجموعة واسعة من الإجراءات المستجيبة بطريقة منظمة أدت أحيانًا إلى التوصية بالرد الذي كان صانعو القرار البشريون سيتبنونه لو فكروا فيه دون انفعال.

طرحت عملية استجابة الذكاء الاصطناعي تحديات، فلم لم يقدم هذا الذكاء إجابات أو توصيات متسقة وكاملة لجميع المطالبات، مما أثار مخاوف بشأن موثوقيته للاستخدام في اتخاذ القرارات في حالات الأزمات.

الاستنتاج الذي خرج به التقرير أنه في حين أثبت الذكاء الاصطناعي فائدته، أثارت هذه اللعبة الحربية المتخيلة تساؤلات حول الفوائد الصافية للاعتماد على أنظمة اصطناعية لإدارة التعلّم الجاهزة وألعاب الحرب الإضافية مع المشاركين من البشر والذكاء الاصطناعي يمكنها أن توفر بيانات مفيدة لتحديد ما إذا كان من الممكن دمج أنظمة إدارة التعلّم بشكل موثوق في صنع القرار في الأمن القومي والسياسة الخارجية في المستقبل.

قال جميل جعفر: “بعد إجراء ما نعتقد أنه أول لعبة حرب كاملة النطاق من نوعها تقارن بشكل مباشر بين اتخاذ القرارات البشرية والجاهزة في سيناريو صراع في العالم الحقيقي، تقدم لعبة الحرب في جامعة جورج ماسون بعض الأفكار الرائعة حول كيفية تأثير الذكاء الاصطناعي على مستقبل الحرب، لكن هناك الكثير من العمل الذي يتعين القيام به لاختبار المزيد من السيناريوهات وتعديل طريقة اللعب والأدوات المستخدمة في هذا النوع من ألعاب الحرب”.

كما قالت كريستين ماكدانيل، المشاركة في هذه الأبحاث: “سيكون أي شخص مهتم بدور الذكاء الاصطناعي في عالمنا غير المستقر بشكل متزايد مهتمًا بنتائج هذه الألعاب الحربية؛ نعتقد أنه من المفيد مقارنة القرارات والإجراءات التي يتخذها مجلس الأمن القومي بقيادة الإنسان مع مجلس الأمن القومي للذكاء الاصطناعي في ظل سيناريوهات مختلفة؛ فبالنسبة للألعاب الحربية التي تم النظر فيها في هذا التمرين، كانت هناك مخاوف مهمة أثيرت بشأن الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات في حالات الأزمات؛ إذ إنه في بعض الحالات، افتقر الذكاء الاصطناعي إلى الإبداع البشري، بينما في حالات أخرى شهدنا كيف يمكن للذكاء الاصطناعي تعزيز اتخاذ القرارات البشرية”.

المصدر: الجزيرة

اترك رد

Your email address will not be published.