الدعوة لتأسيس وكالة أميركية لتنظيم “الذكاء الاصطناعي”
AI بالعربي – متابعات
قال رئيس “مايكروسوفت كورب”، أمس الخميس، إن شركته تدعو إلى إنشاء وكالة أميركية جديدة لتنظيم الذكاء الاصطناعي وتحديد اشتراطات الترخيص لتشغيل أقوى أدوات تلك التكنولوجيا، وفقًا لما نشره موقع الشرق.
شبّه سميث الذكاء الاصطناعي بالصحافة المطبوعة والمصاعد وسلامة الغذاء، باعتبارها قوة تحويلية لتكنولوجيا جديدة، وقال إن الجهات التنظيمية تحتاج إلى وضع أطر للحماية من الأضرار المحتملة الأكبر. تتفق دعوته إلى إنشاء وكالة جديدة مع مقترحات من “أوبن إيه آي” (OpenAI)، الشركة الناشئة وراء التطبيق واشع الانتشار “تشات جي بي تي”، والتي تلقت استثماراً قيمته 10 مليارات دولار من “مايكروسوفت”.
قال سميث في خطاب في واشنطن: “سنستفيد من وجود وكالة جديدة.. وهكذا نضمن استمرار سيطرة البشرية على التكنولوجيا”.
فكرة الوكالة الحكومية المسؤولة عن وضع القواعد الأساسية للذكاء الاصطناعي، جذبت الاهتمام الأسبوع الماضي في جلسة استماع بمجلس الشيوخ الأميركي لسام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي”.
اتفق ألتمان والعديد من أعضاء مجلس الشيوخ الذين كانوا يستجوبونه، على أن عملية التشريع التي تتطلب موافقة أغلبية الحزبين أبطأ من أن تواكب قدرات الذكاء الاصطناعي وتطبيقاته المحتملة، وأن الوكالة ستكون في وضع أفضل لتحديد القواعد التي تحمي المستخدمين.
رغم إثارة هذا المقترح لمداولات في البيت الأبيض، فهو لا يزال بعيدًا كل البعد عن تحويله إلى تشريع. وعلى سبيل المثال، الدعوات في السنوات الماضية لتنظيم وسائل التواصل الاجتماعي لم تحقق أي تقدم في الكونجرس.
بنية تحتية حساسة
أيضًا، قال سميث إن تكنولوجيا الذكاء الاصطناعي المتطورة سريعًا ينبغي أن تكون شفافة من خلال تعاون المطورين مع الحكومات والباحثين الأكاديميين للتعامل مع التحديات المجتمعية التي يمكن أن تظهر، واقترح وضع “مكابح أمان” لتكنولوجيا الذكاء الاصطناعي المستخدمة في التطبيقات عالية الخطورة مثل البنية التحتية الحساسة.
قال سميث في مدونة مصاحبة لخطابه: “تتطلب القوانين الجديدة من مشغلي هذه الأنظمة وضع مكابح أمان في تصميمات أنظمة الذكاء الاصطناعي عالية الخطورة.. ويتعين على الحكومة حينها أن تضمن اختبار المشغلين للأنظمة عالية الخطورة بانتظام للتأكد من فعالية إجراءات سلامة النظام”.
أصدرت إدارة بايدن عدة توجيهات غير ملزمة لتطوير واستخدام منتجات الذكاء الاصطناعي، ومع ذلك تظل الولايات المتحدة متخلفة كثيرًا عن الجهود التنظيمية الأوروبية. فمثلًا، كان قانون الذكاء الاصطناعي في الاتحاد الأوروبي في المراحل النهائية من النقاش عندما أدى إصدار “تشات جي بي تي” وتطبيقات الذكاء الاصطناعي التوليدية الأخرى إلى التشكيك في جدوى القواعد التي تركز على كيفية استخدام التكنولوجيا، بدلًا من كيفية تطويرها أساسًا.
صراع أوروبا مع التكنولوجيا الناشئة
صرح ألتمان للصحفيين في لندن، الأربعاء الماضي، بأن شركة “أوبن إيه آي” قد تسحب منتجاتها من أوروبا إذا لم تستطع الامتثال للقواعد الجديدة المقترحة لتطبيقات الذكاء الاصطناعي في الأغراض العامة.
وردًا على سؤال حول تهديد ألتمان، قال سميث إنه من المهم أن يشرح قطاع التكنولوجيا كيف يمكن أن تنجح اللوائح المقترحة عمليًا، وأضاف أنه متفائل بأن “المنطق سيسود” في النسخة النهائية من قانون أوروبا للذكاء الاصطناعي.
قال سميث في واشنطن بعد خطابه: “العملية التشريعية في كل دولة ديمقراطية حتمًا لها تحدياتها.. هناك أيام ننتبه فيها نحن ممن قد يكون لديهم معرفة أكبر في المجال التكنولوجي ونرى أشياء نود بحق الإشارة إلى أنها لن تعمل على الأرجح بالطريقة التي ينشدها الأشخاص الذين كتبوها”.
في هذا الصدد، أشادت شركات التكنولوجيا الأميركية بإطار عمل صدر في يناير عن المعهد الوطني للمعايير والتكنولوجيا، والذي يركز على كيفية استخدام تكنولوجيا الذكاء الاصطناعي ومستوى المخاطر المصاحب لتطبيقها بدلاً من كيفية تطويرها. وفي خطابه، وصف سميث هذا النموذج بأنه “نظام فكري جديد للذكاء الاصطناعي” يساعد في قياس وإدارة هذه التكنولوجيا.
نموذج عالمي موحد
حضر خطاب سميث عدد من أعضاء الكونجرس، وعندما سأله النائب الديمقراطي، ريتشي توريس، من نيويورك كيف يجب على الكونجرس موازنة التنظيم والابتكار لمواكبة الصين، حث سميث الديمقراطيات الغربية على التعاون معًا لوضع معيار عالمي لتنظيم الذكاء الاصطناعي.
قال سميث: “أقلق أيضًا من احتمال وجود أجزاء أخرى من العالم لا تتبنى نفس حواجز الحماية التي نستخدمها.. لذا من المهم جدًا أن يجتمع الاتحاد الأوروبي والمملكة المتحدة والولايات المتحدة ودول أخرى معًا للقول: ها هو النموذج. ها هو النموذج الذي لا يشجع الابتكار فحسب، بل يحمي الناس، ويحمي الإنسانية، ويحافظ على الحقوق الأساسية”.
ضغط اندفاع “مايكروسوفت” نحو الذكاء الاصطناعي، بما في ذلك دعمها لـ”أوبن إيه آي”، على المنافسين مثل “جوجل” التابعة لـ”ألفابت” لإصدار تطبيقات الذكاء الاصطناعي الخاصة بهم بشكل أسرع، ودمجها في المنتجات الحالية. الأسبوع الماضي، نشرت “جوجل” توصياتها الخاصة بسياسة التطوير المسؤول للذكاء الاصطناعي، وقالت إنها تهدف إلى الاستفادة من الإمكانات الاقتصادية للتكنولوجيا، وفي الوقت ذاته، الحد من بعض مخاطرها على المجتمع.