ما هو الحل لإيقاف خطر الذكاء الاصطناعي؟

ما هو الحل لإيقاف خطر الذكاء الاصطناعي؟

عبدالرحمن الحبيب

بغض النظر عن كونها واقعية أم مبالغة، فقد كثرت التحذيرات من خطورة الذكاء الاصطناعي على الوجود البشري.. بعض الخبراء يطالبون بوضع أنظمة صارمة جداً، فيما طالب باحثون في مجال الذكاء الاصطناعي بوقفة مؤقتة لأنه على المدى المتوسط يمكن لهذه التكنولوجيا أن تؤدي إلى “انقراض البشرية”… فيما يرى جون نوتن بروفيسور الفهم المعرفي للتكنولوجيا أن “رسالة التوقف ذات النوايا الحسنة خشية من أن تكنولوجيا التعلم الآلي قد تجاوزت عتبة كبيرة على الطريق إلى الذكاء العام الاصطناعي..” أي الآلات فائقة الذكاء بما يفوق البشر، وينطلق آلياً بشكل تلقائي دون قدرة البشر على السيطرة عليه، ويقول ساخراً: “إذا حدث ذلك (كما يقول المنطق المرعب)، فقد يكون ذلك خبراً سيئاً للبشرية، ما لم تكن الآلات راضية عن الاحتفاظ بالبشر كحيوانات أليفة”.

وفي نفس الوقت حذر مات كليفورد، المستشار البريطاني للذكاء الاصطناعي، من أن الوقت ينفد بسرعة وأنه ربما “يكون أمامنا سنتان فقط لإنقاذ العالم من خطر الذكاء الاصطناعي”. السبب في ذلك انه “خلال سنتين فقط، سوف تتمتع نظم الذكاء الاصطناعي بالقدر الكافي من القوة التي تمكنها من قتل الكثير من البشر”. الإشكالية الأخرى أنه هناك ما بدأ يطلق عليه “سباق تسلح” تقني بين الولايات المتحدة والصين، قد يواجه به العالم سباق تسلح جديد تغذيه الأجيال القادمة من التكنولوجيا التي جلبت لنا روبوت المحادثة جي بي تي، وأن أنظمة الذكاء الاصطناعي ستستخدم في السعي وراء السلطة والهيمنة العالمية، ولا بد من وضع اتفاقيات دولية لحظر عالمي على الأسلحة ذاتية التشغيل المثيرة للجدل والتي تعمل بطاقة الذكاء الاصطناعي.

وقال نوتن: “الاعتقاد الخاطئ هو أن هناك فائزين واضحين في سباقات التسلّح. وكما أشار سكوت ألكسندر قبل أيام، فإن الانتصارات في مثل هذه السباقات تميل إلى أن تكون عابرة، على الرغم من أن الميزة التكنولوجية قد تكون كافية في بعض الأحيان لترجيح كفة الميزان في الصراع، كما كانت الأسلحة النووية في عام 1946. لكن هذا كان وضعاً ثنائياً، حيث إما تمتلك أسلحة نووية أو لا تمتلكها.. لكن لم يكن هذا هو الحال مع التقنيات الأخرى مثل الكهرباء أو السيارات أو حتى أجهزة الكمبيوتر. ولن يكون هذا هو الحال مع الذكاء العام الاصطناعي، إذا وصلنا إليه”.

كيف يمكن للبشر إيقاف خطر الذكاء الاصطناعي؟ بداية لا بد من تشخيص جوهر المشكلة حسبما يطرح كليفورد الذي يرى أنها تكمن في أن مطوري تلك التكنولوجيا أنفسهم يعترفون بأنه لا يمكنهم التنبؤ بسلوك تطبيقات الذكاء الاصطناعي، وهذا ما يجعلها أكثر خطورة. لذا يرى أنه لا بد من إيجاد طريقة للسيطرة على هذه التكنولوجيا.. فإذا حاولنا تطوير ذكاء اصطناعي أذكى من البشر ولم نعرف كيف يمكننا السيطرة عليه، سوف يجعلنا ذلك عرضة لجميع المخاطر المحتملة الآن وفي المستقبل. لذا من الضروري أن يكون هذا الأمر على رأس أجندة أولويات صناع السياسات، حسب قوله.

ويقترح كليفورد إنشاء مركز عالمي للرقابة على الذكاء الاصطناعي وتنظيم العمل به على غرار الوكالة الدولية للطاقة الذرية؛ إلى أن يتم مثل ذلك المركز الدولي فقد تبنت الحكومات حتى الآن ثلاث مقاربات مختلفة تتراوح من مخففة إلى صارمة، توضحها الإيكونيميست.

 الأولى أقرب أمثلتها في بريطانيا وأمريكا، باقتراح نهجٍ “خفيفٍ” بدون قواعد أو هيئات تنظيمية جديدة، لكنها تطبق اللوائح الحالية على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار ودعم الذكاء الاصطناعي.

النهج الثاني يتخذه الاتحاد الأوروبي بصرامة أكبر، حيث يصنف قانونها المقترح الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويتطلب مراقبة وكشف أكثر صرامة مع ارتفاع درجة المخاطر، فبعض استخدامات الذكاء الاصطناعي محظورة تمامًا، مثل الإعلانات اللاشعورية والقياسات الحيوية عن بُعد، وسيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد، هذه اللوائح خانقة للغاية.

النهج الثالث أكثرها صرامة، حيث يرى آخرون أنه يجب على الحكومات التعامل مع الذكاء الاصطناعي مثل الأدوية، مع وجود منظم مخصص، واختبار صارم وموافقة مسبقة قبل الإصدار العام. تقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات ذكاء اصطناعي والخضوع لمراجعة أمنية قبل إصدارها. تحقيق التوازن بين الفرص والمجازفة في الذكاء الاصطناعي يعني السير بحذر مع تقدير المخاطر الجديدة وتعديل النهج الحالي والأنظمة والقواعد وفقاً لما يلوح من خطر، فقد حان الوقت للبدء في تأسيس تلك التنظيمات. الخطر الوجودي الذي يقصده كثير من الخبراء والمفكرين في المجال التقني والمعرفي يكمن في تطوير فصائل جديدة ذكاؤها يفوق ذكاء البشر، كما يذكر كليفورد: “قد يكون أشبه بسيناريو فيلم رعب، لكنه مصدر لمخاوف حقيقية، وهو ما يجعل من الضروري أن تتكاتف دول العالم من أجل وضع قواعد تحكم ذلك”.

يقول العالم الفيزيائي الشهير ستيفن هوكينج: “يمكن أن يؤدي تطوير الذكاء الاصطناعي الكامل إلى نهاية الجنس البشري… وسوف ينطلق من تلقاء نفسه، ويعيد تصميم نفسه بمعدل متزايد باستمرار. البشر، المحدودين بسبب التطور البيولوجي البطيء، لا يمكن أن ينافسوا، وسوف يتم استبدالهم”.

المصدر: الجزيرة

Related Posts

“inflo” أداة متقدمة لتحسين التدقيق المالي باستخدام الذكاء الاصطناعي

AI بالعربي – خاص تستخدم أداة الذكاء الاصطناعي “inflo” من قبل مكاتب المحاسبة العالمية لتحسين دقة المراجعة والتدقيق المالي، وتقليل الوقت المستغرق في تحليل البيانات، وتعتمد على تقنيات تحليل البيانات…

كيف يساهم الذكاء الاصطناعي ووسائل التواصل في “تعفن الدماغ”؟

AI بالعربي – متابعات كلفت الأستاذة شيري ميلوماد من جامعة بنسلفانيا مجموعة من 250 شخصًا بكتابة نصائح صحية لأصدقائهم. اعتمد بعضهم على بحث “جوجل” التقليدي، فيما استخدم آخرون ملخصات مولدة…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 92 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 89 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 118 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 271 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 354 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 366 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”