هل ينطبق على الذكاء الاصطناعي ما يُطبق في السلاح النووي؟
AI بالعربي – متابعات
مع تطور وانتشار تكنولوجيات الذكاء الاصطناعي على نطاق واسع، يتزايد القلق حول المخاطر التي تشكلها. وفي مايو الماضي ذهب بعض كبار العاملين في هذا القطاع والعلماء إلى حد القول بأن الذكاء الاصطناعي يمثل تهديدًا كبيرًا للبشرية تمامًا مثل الحرب النووية، وفقًا لموقع صحيفة العرب.
وتقول ياسمين أفينا، الباحثة بمبادرة المجتمع الرقمي بمعهد تشاتام هاوس والمعروف رسميا باسم المعهد الملكي للشؤون الدولية والدكتورة باتريشيا ليويس، مديرة برنامج الأمن الدولي بالمعهد، إن المقارنة بين المجالين تكتسب زخما متزايدا واهتمام شخصيات مؤثرة من بينها سام ألتمان الرئيس التنفيذي لشركة أوبن أي.آي، واقترح أنطونيو غوتيريش أمين عام الأمم المتحدة تأسيس وكالة دولية مشابهة للوكالة الدولية للطاقة الذرية.
وتؤكد أفينا وليويس في تقرير نشره معهد تشاثام هاوس أن المجالين نوعان مختلفان من التكنولوجيا، وأن نموذج الحوكمة النووية لا يصلح على الإطلاق بالنسبة للذكاء الاصطناعي.
فالوكالة الدولية للطاقة الذرية تأسست عام 1957 من أجل تعزيز الاستخدام السلمي للتكنولوجيا النووية بفضل الرئيس الأميركي أيزنهاور، الذي اقترح إنشاء الوكالة في خطابه “الذرة من أجل السلام”، على أمل احتمال أن يؤدي انقسام الذرة إلى توحيد كل العالم المنقسم على نفسه.
ووفقا لقانونها الأساسي تعتبر الوكالة مكلفة بتعزيز الطاقة النووية من أجل السلام، والصحة والازدهار وضمان – بقدر الإمكان – عدم استخدامها بطرق تعزز الأغراض العسكرية. وتقوم الوكالة بعمليات تفتيش تتعلق بالضمانات في المنشآت النووية المدنية مثل محطات الطاقة النووية ومفاعلات الأبحاث لضمان عدم تحويل المواد النووية في الدول غير الحائزة على الأسلحة النووية إلى برامج عسكرية.
وحققت الوكالة نجاحا كبيرا في عملها، واكتشفت عدة حالات عدم التزام، وباستثناء حالة كوريا الشمالية، أسهمت إلى حد كبير في منع الانتشار وشمل ذلك إيران حتى الآن.
وتوضح الباحثتان أن الأسلحة النووية منذ تطويرها تمثل خطرا وجوديا يمكن قياسه. ويؤكد القصف النووي لهيروشيما وناغازاكي الطابع المدمر لهذه الأسلحة والذي لا يمكن احتواؤه. وكان الخوف الشديد من الحرب النووية هو أحد الدوافع الرئيسية لتأسيس الوكالة الدولية للطاقة الذرية ومعاهدات الحد من التسلح مثل معاهدة منع الانتشار النووي.
وكان لهذه المخاوف ما يبررها. ففي أوج الحرب الباردة، يقال إنه كان لدى الولايات المتحدة والاتحاد السوفيتي ما يكفي من الأسلحة النووية “لتدمير البشرية كما نعرفها”. وفي الوقت الحالي تكشف التقديرات الحديثة أن عدد الأسلحة النووية المطلوبة للقضاء على الأحوال المناسبة للتعايش البشري يقل عن 100 سلاح.
ومن ثم فإن المخاطر التي يمثلها وجود الأسلحة النووية نفسه وخطر استخدامها تعتبر وجودية. والمخاطر الإنسانية العميقة والتداعيات التي يمكن أن يسفر عنها استخدامها كانت قوة دافعة لتبني معاهدة حظر الأسلحة النووية عام 2017.
وفي الوقت الحالي لا توجد أي أدلة علمية قوية على أن هناك خطرا وجوديا وكارثيا يمثله الذكاء الاصطناعي.
ولا يعني هذا القول أن مخاطر الذكاء الاصطناعي ليست موجودة: فهي موجودة بالفعل. وهناك قدر متزايد من الأدلة يؤكد الضرر الذي يمكن أن تمثله هذه التكنولوجيات، خاصة بالنسبة لأولئك الأكثر عرضة للخطر مثل الأقليات العرقية، وشعوب الدول النامية، وغيرها من الفئات الأخرى العرضة للخطر.
فالاعتماد الأكثر من اللازم على الذكاء الاصطناعي، خاصة بالنسبة للبنية التحتية الوطنية المهمة، يمكن أن يكون مصدرا لقدر كبير من التعرض للخطر، ولكن ذلك لن يكون كارثيا للبشر.
ومع ذلك يتعين النظر في المخاوف المتعلقة بمخاطر الذكاء الاصطناعي الوجودية الأوسع نطاقا، بعناية وخطوة خطوة، مع جمع الأدلة وتحليلها.
ولكن التحرك بسرعة أكثر من اللازم يمكن أن يسبب أيضا أضرارا.
وتوضح أفينا وليويس أن تقنيات الأسلحة النووية مختلفة تماما عن تقنيات الذكاء الاصطناعي. فالأسلحة النووية تحتاج لصنعها إلى مواد خاصة لها بصماتها القابلة للقياس والتي يمكن اكتشاف أقل القليل منها أثناء عمليات التفتيش الروتينية. ويؤدي التحكم في وصولها إلى الحيلولة دون الحصول عليها من جانب الدول غير المسموح لها بذلك. وهذا أمر يختلف تماما عن الذكاء الاصطناعي، الذي يعتمد أساسا على البرامج وعلى الأغراض العامة.
وعلى الرغم من أن تطوير الذكاء الاصطناعي والتدريب عليه يمكن أن يتطلب استثمارات كبيرة وأجهزة حاسب آلي ضخمة ذات قدرات تشغيل هائلة، تعتبر تطبيقاته منتشرة على نطاق واسع وتهدف بصورة متزايدة للاستخدام الجماعي في كل قطاعات المجتمع. وعلى هذا الأساس يعتبر الذكاء الاصطناعي عكس الأسلحة النووية تماما.
والطابع غير الملموس للذكاء الاصطناعي يجعل من الصعب، إن لم يكن من المستحيل، احتواؤه – خاصة مع زيادة الذكاء الاصطناعي مفتوح المصدر. ومن ثم فإن إجراءات الضمانات ووسائل التحقق المماثلة لتلك التي تستخدمها الوكالة الدولية للطاقة الذرية لن تصلح للذكاء الاصطناعي بسبب هذه الاختلافات الفنية الكامنة.
ويمكن القول إن من الضروري أن تكون هناك أساليب للتعامل مع المخاطر المتعلقة بتطوير ونشر تكنولوجيات الذكاء الاصطناعي. ومن الممكن أن توفر نماذج الحوكمة البعيدة عن المجال النووي إلهاما أفضل.