قمة بريطانيا: انطلاقة جهود عالمية جديدة لمكافحة مخاطر الذكاء الاصطناعي
الولايات المتحدة والصين ودول الاتحاد الأوروبي توقع أول إعلان عالمي للتطوير الآمن للذكاء الاصطناعي.
AI بالعربي – متابعات
يوفر الذكاء الاصطناعي فرصا ضخمة ومذهلة في مجالات التعليم والطب وغيرها، ولكنه يمثل أيضاً مخاطر على المجتمعات والاقتصادات والأمن، ما دفع دول العالم إلى البحث عن آليات سلامة. ووقّعت الصين والولايات المتحدة والاتحاد الأوروبي ونحو عشرين دولة في بريطانيا، الأربعاء، إعلان بليتشلي من أجل تطوير “آمن” للذكاء الاصطناعي خلال القمة الدولية الأولى حول التطور السريع لهذه التكنولوجيا.
ورحب رئيس الوزراء البريطاني ريشي سوناك عبر شبكة إكس (تويتر سابقاً) بالإعلان، قائلاً إن “هذا الإعلان التاريخي يمثل بداية جهد عالمي جديد لبناء ثقة الجمهور في الذكاء الاصطناعي من خلال ضمان سلامته”. واتفق الاتحاد الأوروبي و28 دولة اجتمع ممثلون عنها في بليتشلي بارك في شمال العاصمة البريطانية لندن على “الحاجة الملحة إلى فهم وإدارة المخاطر المحتملة” للذكاء الاصطناعي بشكل جماعي من خلال “جهد عالمي جديد لضمان تطوير الذكاء الاصطناعي ونشره بطريقة آمنة ومسؤولة”, وفقا لما نشرته صحيفة العرب.
وفي مواجهة الإمكانات المتزايدة لبرمجيات مثل تشات جي.بي.تي، فإن إعلان بليتشلي “يُظهر أنه لأول مرة يجتمع العالم لتحديد المشكلة وإبراز الفرص المتصلة بها”، وفق ما أكدت وزيرة التكنولوجيا البريطانية ميشال دونيلان.
وأوضحت الوزيرة البريطانية أن الاجتماع “لا يهدف إلى وضع الأسس للتشريعات العالمية، بل يجب أن يعمل على رسم طريق للمضي قدماً” في المجال. وأضافت من الموقع ذي الرمزية الكبيرة والذي كان يضم مركز فك الشفرات في الحرب العالمية الثانية، أن القمة ستُستتبع بقمتين دوليتين حول الذكاء الاصطناعي، الأولى في كوريا الجنوبية في غضون ستة أشهر، ثم في فرنسا في غضون عام.
وعلى مدار يومين، يجتمع القادة السياسيون وخبراء الذكاء الاصطناعي وعمالقة التكنولوجيا بمبادرة من المملكة المتحدة التي تريد أن تأخذ زمام المبادرة في التعاون العالمي في مجال التكنولوجيا. وفي الوقت نفسه، من المقرر أن تعلن نائبة الرئيس الأميركي كامالا هاريس في كلمة لها في لندن عن إنشاء معهد لأمن الذكاء الاصطناعي في واشنطن.
والمعهد المشابه للذي أعلنت المملكة المتحدة أيضاً عن إنشائه، سيجمع الخبراء المسؤولين عن وضع “مبادئ توجيهية” وتقييم نماذج الذكاء الاصطناعي الأكثر تقدماً من أجل “تحديد المخاطر وتخفيفها”، وفق البيت الأبيض. وقد حقق الذكاء الاصطناعي التوليدي، القادر على إنتاج نص أو أصوات أو صور بناءً على طلب بسيط في غضون ثوانٍ، تقدّماً مبهراً في السنوات الأخيرة، ويُتوقع أن تظهر الأجيال الجديدة من النماذج في الأشهر المقبلة.
وحذرت الحكومة البريطانية في تقرير نُشر الخميس من أن “هذه التكنولوجيا التي تثير آمالا كبيرة في الطب أو التعليم، قد تشكل أيضاً تهديداً وجودياً” من خلال زعزعة استقرار مجتمعات، عبر إتاحتها تصنيع أسلحة أو الإفلات من السيطرة البشرية.
بعد اليوم الأول (الأربعاء) المخصص للمخاطر المحتملة للذكاء الاصطناعي الأكثر تقدماً، من المتوقع حضور ممثلين سياسيين رفيعي المستوى إلى بليتشلي بارك الخميس، ومن بينهم رئيسة المفوضية الأوروبية أورسولا فون دير لاين والأمين العام للأمم المتحدة أنطونيو غوتيريش ورئيسة الوزراء الإيطالية جورجيا ميلوني وهي الوحيدة التي ستحضر القمة من بين زعماء بلدان مجموعة السبع.
وتأمل الحكومة البريطانية في التوصل، على الأقل، إلى “أول إعلان دولي حول طبيعة” مخاطر الذكاء الاصطناعي. وتقترح أيضاً إنشاء مجموعة من الخبراء في مجال الذكاء الاصطناعي بناءً على نموذج الهيئة الحكومية الدولية المعنية بتغير المناخ المسؤولة عن متابعة القضايا المناخية.
وسيجري الملياردير إيلون ماسك رئيس شبكة إكس محادثات مع رئيس الوزراء البريطاني بعد القمة. وقد شدد ماسك الأربعاء على الحاجة إلى وجود “حَكَم” في مجال الذكاء الاصطناعي، قائلاً إن التكنولوجيا تشكّل أحد “أكبر التهديدات” التي تواجه البشرية.
وقال ماسك للصحافيين خلال مشاركته في قمة بليتشلي بارك “ما نهدف إليه هو إنشاء إطار لفهم أفضل، بحيث يكون هناك على الأقل حَكَم مستقل يمكنه مراقبة ما تفعله شركات الذكاء الاصطناعي ودق ناقوس الخطر إذا ما كانت لديه مخاوف”. وأضاف “آمل في هذه القمة أن يكون هناك (..) إجماع دولي على الفهم الأولي للذكاء الاصطناعي المتقدم”.
وفي رسالة مفتوحة نُشرت الثلاثاء، دعا العديد من “الآباء المؤسسين” لتكنولوجيا الذكاء الاصطناعي، مثل يوشوا بنجيو وجيفري هينتون إلى “تطوير معاهدة دولية بشأن الذكاء الاصطناعي والتصديق عليها” من أجل الحد من المخاطر “والعواقب الكارثية المحتملة” التي تفرضها الأنظمة المتقدمة على الإنسانية.
ويكمن التحدي في القدرة على تحديد ضمانات من دون إعاقة الابتكار لمختبرات الذكاء الاصطناعي وعمالقة التكنولوجيا. وقد اختار الاتحاد الأوروبي والولايات المتحدة، على النقيض من المملكة المتحدة، مسار التنظيم. وفي الأسبوع الماضي، وافقت شركات عدة مثل أوبن أي.آي وميتا (فيسبوك وإنستغرام) وديب مايند (غوغل) على الإعلان عن بعض قواعدها الأمنية الخاصة بالذكاء الاصطناعي بناءً على طلب المملكة المتحدة.
وفي رسالة مفتوحة موجهة إلى سوناك، أعربت حوالي مئة منظمة دولية وخبراء وناشطون عن استيائهم من عقد القمة بصورة “مغلقة”، مع هيمنة عمالقة التكنولوجيا عليها وحضور محدود للمجتمع المدني. وكشفت دراسة أجرتها جامعة ستانفورد ونُشِرَت نتائجها الأربعاء أن نماذج الذكاء الاصطناعي التي تكاثرت منذ إطلاق تشات جي.بي.تي تفتقر إلى الشفافية في تصميمها، ما يشكل خطراً على التطبيقات التي ترتكز عليها تقنياً.
وبيّن مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في الجامعة الواقعة في ولاية كاليفورنيا الأميركية، أن الأكثر شفافية بين النماذج العشرة التي أُخضِعَت للتقويم هو “لاما 2″، وهو نظام ذكاء اصطناعي أطلقته مجموعة ميتا في يوليو الفائت ويمكن إعادة استخدامه.
لكنّ النموذج لا يوفّر في الواقع إلا 54 في المئة من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافاً، وفقاً لمعدّي الدراسة. وأما تشات جي.بي.تي – 4، وهو المنتَج الرئيسي لشركة أوبن أي.آي الممَوَّلَة من مايكروسوفت، فلا تتعدى درجة شفافيته 48 في المئة.
وحصلت على مراتب أدنى نماذج أخرى تلقى رواجاً، بينها “بالم – 2” من غوغل وكلود – 2 من “أنثروبيك” (الممولة من أمازون). وأوضح مدير الأبحاث في جامعة ستانفورد ريشي بوماساني في بيان أن درجة الشفافية المطلوب توافرها في ما يسمى “نماذج التأسيس” يجب أن تتراوح بين 80 و100 في المئة.
وأوضح معدّو الدراسة أن الافتقار إلى الشفافية “يصعّب على الشركات معرفة ما إذا كان بإمكانها بناء تطبيقات بأمان تقوم على هذه النماذج، وعلى الأكاديميين الاعتماد على هذه النماذج في أبحاثهم”. ولاحظت الدراسة أن معظم الشركات لا تفصح عن مدى المحتوى المحميّ بحقوق المؤلف والمستخدم لتدريب نموذجها. كذلك لا تكشف الشركات عن استخدام العمالة البشرية لتصحيح بيانات التدريب، الأمر الذي قد يكون مشكلة كبيرة.
وعبر بوماساني عن أسفه لكون “الشركات لا تقدّم معلومات عن عدد المستخدمين الذين يعتمدون على نماذجها، ولا إحصاءات عن البلدان أو الأسواق التي تستخدمها”. وشرح معدّو الدراسة أن صنّاع السياسات والعاملين في الهيئات الناظمة يستطيعون استخدام مؤشر الشفافية في المستقبل. وأعلنت دول الاتحاد الأوروبي والولايات المتحدة والصين والمملكة المتحدة وكندا عن رغبتها في ظهور ذكاء اصطناعي أكثر شفافية.