ما هو الحل لإيقاف خطر الذكاء الاصطناعي؟

18

عبدالرحمن الحبيب

بغض النظر عن كونها واقعية أم مبالغة، فقد كثرت التحذيرات من خطورة الذكاء الاصطناعي على الوجود البشري.. بعض الخبراء يطالبون بوضع أنظمة صارمة جداً، فيما طالب باحثون في مجال الذكاء الاصطناعي بوقفة مؤقتة لأنه على المدى المتوسط يمكن لهذه التكنولوجيا أن تؤدي إلى “انقراض البشرية”… فيما يرى جون نوتن بروفيسور الفهم المعرفي للتكنولوجيا أن “رسالة التوقف ذات النوايا الحسنة خشية من أن تكنولوجيا التعلم الآلي قد تجاوزت عتبة كبيرة على الطريق إلى الذكاء العام الاصطناعي..” أي الآلات فائقة الذكاء بما يفوق البشر، وينطلق آلياً بشكل تلقائي دون قدرة البشر على السيطرة عليه، ويقول ساخراً: “إذا حدث ذلك (كما يقول المنطق المرعب)، فقد يكون ذلك خبراً سيئاً للبشرية، ما لم تكن الآلات راضية عن الاحتفاظ بالبشر كحيوانات أليفة”.

وفي نفس الوقت حذر مات كليفورد، المستشار البريطاني للذكاء الاصطناعي، من أن الوقت ينفد بسرعة وأنه ربما “يكون أمامنا سنتان فقط لإنقاذ العالم من خطر الذكاء الاصطناعي”. السبب في ذلك انه “خلال سنتين فقط، سوف تتمتع نظم الذكاء الاصطناعي بالقدر الكافي من القوة التي تمكنها من قتل الكثير من البشر”. الإشكالية الأخرى أنه هناك ما بدأ يطلق عليه “سباق تسلح” تقني بين الولايات المتحدة والصين، قد يواجه به العالم سباق تسلح جديد تغذيه الأجيال القادمة من التكنولوجيا التي جلبت لنا روبوت المحادثة جي بي تي، وأن أنظمة الذكاء الاصطناعي ستستخدم في السعي وراء السلطة والهيمنة العالمية، ولا بد من وضع اتفاقيات دولية لحظر عالمي على الأسلحة ذاتية التشغيل المثيرة للجدل والتي تعمل بطاقة الذكاء الاصطناعي.

وقال نوتن: “الاعتقاد الخاطئ هو أن هناك فائزين واضحين في سباقات التسلّح. وكما أشار سكوت ألكسندر قبل أيام، فإن الانتصارات في مثل هذه السباقات تميل إلى أن تكون عابرة، على الرغم من أن الميزة التكنولوجية قد تكون كافية في بعض الأحيان لترجيح كفة الميزان في الصراع، كما كانت الأسلحة النووية في عام 1946. لكن هذا كان وضعاً ثنائياً، حيث إما تمتلك أسلحة نووية أو لا تمتلكها.. لكن لم يكن هذا هو الحال مع التقنيات الأخرى مثل الكهرباء أو السيارات أو حتى أجهزة الكمبيوتر. ولن يكون هذا هو الحال مع الذكاء العام الاصطناعي، إذا وصلنا إليه”.

كيف يمكن للبشر إيقاف خطر الذكاء الاصطناعي؟ بداية لا بد من تشخيص جوهر المشكلة حسبما يطرح كليفورد الذي يرى أنها تكمن في أن مطوري تلك التكنولوجيا أنفسهم يعترفون بأنه لا يمكنهم التنبؤ بسلوك تطبيقات الذكاء الاصطناعي، وهذا ما يجعلها أكثر خطورة. لذا يرى أنه لا بد من إيجاد طريقة للسيطرة على هذه التكنولوجيا.. فإذا حاولنا تطوير ذكاء اصطناعي أذكى من البشر ولم نعرف كيف يمكننا السيطرة عليه، سوف يجعلنا ذلك عرضة لجميع المخاطر المحتملة الآن وفي المستقبل. لذا من الضروري أن يكون هذا الأمر على رأس أجندة أولويات صناع السياسات، حسب قوله.

ويقترح كليفورد إنشاء مركز عالمي للرقابة على الذكاء الاصطناعي وتنظيم العمل به على غرار الوكالة الدولية للطاقة الذرية؛ إلى أن يتم مثل ذلك المركز الدولي فقد تبنت الحكومات حتى الآن ثلاث مقاربات مختلفة تتراوح من مخففة إلى صارمة، توضحها الإيكونيميست.

 الأولى أقرب أمثلتها في بريطانيا وأمريكا، باقتراح نهجٍ “خفيفٍ” بدون قواعد أو هيئات تنظيمية جديدة، لكنها تطبق اللوائح الحالية على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار ودعم الذكاء الاصطناعي.

النهج الثاني يتخذه الاتحاد الأوروبي بصرامة أكبر، حيث يصنف قانونها المقترح الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويتطلب مراقبة وكشف أكثر صرامة مع ارتفاع درجة المخاطر، فبعض استخدامات الذكاء الاصطناعي محظورة تمامًا، مثل الإعلانات اللاشعورية والقياسات الحيوية عن بُعد، وسيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد، هذه اللوائح خانقة للغاية.

النهج الثالث أكثرها صرامة، حيث يرى آخرون أنه يجب على الحكومات التعامل مع الذكاء الاصطناعي مثل الأدوية، مع وجود منظم مخصص، واختبار صارم وموافقة مسبقة قبل الإصدار العام. تقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات ذكاء اصطناعي والخضوع لمراجعة أمنية قبل إصدارها. تحقيق التوازن بين الفرص والمجازفة في الذكاء الاصطناعي يعني السير بحذر مع تقدير المخاطر الجديدة وتعديل النهج الحالي والأنظمة والقواعد وفقاً لما يلوح من خطر، فقد حان الوقت للبدء في تأسيس تلك التنظيمات. الخطر الوجودي الذي يقصده كثير من الخبراء والمفكرين في المجال التقني والمعرفي يكمن في تطوير فصائل جديدة ذكاؤها يفوق ذكاء البشر، كما يذكر كليفورد: “قد يكون أشبه بسيناريو فيلم رعب، لكنه مصدر لمخاوف حقيقية، وهو ما يجعل من الضروري أن تتكاتف دول العالم من أجل وضع قواعد تحكم ذلك”.

يقول العالم الفيزيائي الشهير ستيفن هوكينج: “يمكن أن يؤدي تطوير الذكاء الاصطناعي الكامل إلى نهاية الجنس البشري… وسوف ينطلق من تلقاء نفسه، ويعيد تصميم نفسه بمعدل متزايد باستمرار. البشر، المحدودين بسبب التطور البيولوجي البطيء، لا يمكن أن ينافسوا، وسوف يتم استبدالهم”.

المصدر: الجزيرة

اترك رد

Your email address will not be published.