“إعلان بلتشلي” لتنظيم الذكاء الاصطناعي يمثل نجاح

9

AI بالعربي – متابعات

دافع ريشي سوناك رئيس الوزراء البريطاني عن سلسلة من الاتفاقيات التاريخية بعد استضافته أول قمة للسلامة في مجال الذكاء الاصطناعي، لكن وضع خطة عالمية للإشراف على التكنولوجيا لا يزال بعيد المنال.

وعلى مدار يومين من المحادثات بين قادة العالم ومديري الأعمال والباحثين، اجتمع الرؤساء التنفيذيون للتكنولوجيا مثل إيلون ماسك وسام ألتمان مع كامالا هاريس نائبة الرئيس الأميركي وأورسولا فون دير لاين رئيسة المفوضية الأوروبية لمناقشة التنظيم المستقبلي للذكاء الاصطناعي.

ووقع زعماء من 28 دولة ـ بما في ذلك الصين ـ على إعلان بلتشلي، وهو بيان مشترك يعترف بمخاطر هذه التكنولوجيا؛ وأعلنت الولايات المتحدة وبريطانيا خططا لإطلاق معاهدهما الخاصة بسلامة الذكاء الاصطناعي؛ وتم الإعلان عن عقد قمتين أخريين في كوريا الجنوبية وفرنسا العام المقبل.

لكن على الرغم من التوصل إلى بعض الإجماع حول الحاجة إلى تنظيم الذكاء الاصطناعي، إلا أن الخلافات لا تزال قائمة حول كيفية حدوث ذلك على وجه التحديد ــ ومن سيقود مثل هذه الجهود.

وأصبحت المخاطر المتعلقة بالذكاء الاصطناعي سريع التطور أولوية عالية بشكل متزايد لصانعي السياسات منذ أن أطلقت Open AI المدعومة من ميكروفست للجمهور العام الماضي.

وقدرة روبوت الدردشة غير المسبوقة على الاستجابة للمطالبات بطلاقة تشبه ما يفعله الإنسان، دفعت بعض الخبراء إلى الدعوة إلى التوقف مؤقتا في تطوير مثل هذه الأنظمة، محذرين من أنها قد تحصل على الاستقلالية وتهديد البشرية.

وتحدث سوناك عن “امتيازه ومتحمسه” لاستضافة ماسك مؤسس شركة تيسلا، لكن المشرعين الأوروبيين حذروا من احتفاظ عدد صغير من الشركات في دولة واحدة، الولايات المتحدة، بقدر كبير للغاية من التكنولوجيا والبيانات.

وقال برونو لومير وزير الاقتصاد والمالية الفرنسي: “إن وجود دولة واحدة تمتلك كل التقنيات، وجميع الشركات الخاصة، وجميع الأجهزة، وجميع المهارات، سيكون بمنزلة فشل لنا جميعًا”.

كما ابتعدت المملكة المتحدة عن الاتحاد الأوروبي من خلال اقتراح نهج خفيف لتنظيم الذكاء الاصطناعي، على النقيض من قانون الذكاء الاصطناعي الأوروبي، الذي يقترب من الانتهاء منه وسيلزم مطوري ما يعتبر تطبيقات “عالية المخاطر” بضوابط أكثر صرامة.

وقالت فيرا جوروفا، نائبة رئيس المفوضية الأوروبية “لقد جئت إلى هنا للترويج لقانون الذكاء الاصطناعي الخاص بنا”.

وأضافت جوروفا أنها لا تتوقع أن تنسخ الدول الأخرى قوانين الكتلة بالكامل، لكن هناك حاجة إلى بعض الاتفاق على القواعد العالمية.

وذكرت “إذا لم يكن العالم الديمقراطي صانعا للقواعد، وإذا لم نصبح نحن متخذي القواعد، فسنخسر المعركة”.

وأثناء عرض صورة للوحدة، قال الحاضرون إن كتل القوى الرئيسة الثلاث الحاضرة – الولايات المتحدة والاتحاد الأوروبي والصين – حاولت تأكيد هيمنتها.

وأشار البعض إلى أن هاريس تفوقت على سوناك عندما أعلنت الحكومة الأمريكية معهدها الخاص لسلامة الذكاء الاصطناعي – تماما كما فعلت بريطانيا قبل أسبوع – وألقت خطابا في لندن سلطت فيه الضوء على مخاطر التكنولوجيا على المدى القصير، على عكس تركيز القمة على التهديدات الوجودية.

وقال نايجل تون، الرئيس التنفيذي لشركة Graphcore البريطانية للذكاء الاصطناعي: “كان من الرائع أنه في الوقت الذي أعلنا فيه عن معهدنا لسلامة الذكاء الاصطناعي، أعلن الأميركيون عن معهدهم”.

واعتبر المسؤولون البريطانيون حضور الصين في القمة وقرارها بالتوقيع على “إعلان بلتشلي” بمنزلة نجاح.

وقال نائب وزير العلوم والتكنولوجيا الصيني إن بلاده مستعدة للعمل مع جميع الأطراف بشأن حوكمة الذكاء الاصطناعي.

وفي إشارة إلى التوتر بين الصين والغرب، قال وو تشاوهوي للمندوبين: “الدول، بغض النظر عن حجمها وحجمها، لها حقوق متساوية في تطوير واستخدام الذكاء الاصطناعي”.

وأضافت الوزارة إن الوزير الصيني شارك في المائدة المستديرة الوزارية، لكنه لم يشارك في الفعاليات العامة في اليوم الثاني.

كان الموضوع المتكرر للمناقشات خلف الأبواب المغلقة، والذي أبرزه عدد من الحاضرين، هو المخاطر المحتملة للذكاء الاصطناعي مفتوح المصدر، والذي يمنح أفراد الجمهور حرية الوصول إلى تجربة الكود الكامن وراء التكنولوجيا.

وحذر بعض الخبراء من أن النماذج مفتوحة المصدر يمكن أن يستخدمها البعض لصنع أسلحة كيميائية، أو حتى إنشاء ذكاء فائق خارج عن سيطرة البشر.

وفي حديثه مع سوناك في حدث مباشر في لندن الخميس، قال ماسك: “سيصل الأمر إلى النقطة التي يكون لديك فيها ذكاء اصطناعي مفتوح المصدر سيبدأ في الاقتراب من مستوى الذكاء البشري، أو ربما يتجاوزه”. تعرف تماما ما يجب فعله حيال ذلك”.

وقال يوشوا بنجيو، أحد رواد الذكاء الاصطناعي المعين لقيادة تقرير “حالة العلم” الذي تم إعداده كجزء من إعلان بلتشلي، إن مخاطر الذكاء الاصطناعي مفتوح المصدر تمثل أولوية قصوى.

وقال “يمكن وضعها في أيدي جهات فاعلة سيئة، ويمكن تعديلها لأغراض خبيثة. لا يمكنك الحصول على إصدار مفتوح المصدر لهذه الأنظمة القوية، مع الاستمرار في حماية الجمهور باستخدام حواجز الحماية المناسبة.

اترك رد

Your email address will not be published.