المطالبة بالتخفيف من الفوضى الناجمة عن الذكاء الاصطناعي

23

AI بالعربي – متابعات

أصدرت مئات من الشخصيات الرائدة في مجال الذكاء الاصطناعي بيانًا مشتركًا في مايو الماضي، يصف التهديد الوجودي الذي تشكله التكنولوجيا التي ساعدوا على ابتكارها للبشرية.

وجاء في البيان: “ينبغي أن يكون التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية، إلى جانب المخاطر المجتمعية الأخرى كالجوائح والحرب النووية”.

وقد تصدرت تلك الجملة المنفردة التي تستشهد بالتهديد بإبادة البشرية، التي وقعها مئات من الرؤساء التنفيذيين والعلماء من شركات من ضمنها أوبن إيه آي، وديب مايند التابعة لجوجل، وأنثروبك، ومايكروسوفت، عناوين الصحف العالمية.

إن ما دفع كل هؤلاء الخبراء إلى التحدث هو الوعد، لكن أيضًا الخطر المتمثل في الذكاء الاصطناعي التوليدي، وهو نوع من التكنولوجيا يمكنها معالجة وتوليد كميات هائلة من البيانات.

لقد أثار إصدار ChatGPT بواسطة شركة أوبن إيه أي في نوفمبر موجة من الإثارة المحمومة، حيث أظهر قدرة النماذج اللغوية الكبيرة، وهي التكنولوجيا الأساسية وراء روبوت المحادثة، على استحضار مقاطع نصية مقنعة، قادرة على كتابة مقال أو تحسين رسائل البريد الإلكتروني الخاصة بك.

وأوجد سباقًا بين الشركات في هذا القطاع لإطلاق أدواتها الخاصة بالذكاء الاصطناعي التوليدي للمستهلكين التي يمكنها إنشاء نصوص وصور واقعية.

كما أدت الضجة المحيطة بهذه التكنولوجيا إلى زيادة الوعي بمخاطرها: إمكانية إنشاء ونشر معلومات مضللة مع اقتراب الانتخابات الديمقراطية، وقدرتها على استبدال الوظائف أو إحداث تحولات بها، خاصة في الصناعات الإبداعية، والخطر الأقل إلحاحًا المتمثل في أن يصبح أكثر ذكاء من البشر ويحل محلهم.

وأعربت الجهات التنظيمية وشركات التكنولوجيا بصوت عال عن الحاجة إلى التحكم في الذكاء الاصطناعي، لكن الأفكار حول كيفية تنظيم النماذج ومبدعيها تباينت على نطاق واسع حسب المنطقة.

فقد صاغ الاتحاد الأوروبي إجراءات صارمة بشأن استخدام الذكاء الاصطناعي من شأنها أن تضع العبء على شركات التكنولوجيا لضمان عدم انتهاك نماذجها للقواعد.

لقد تحركوا بسرعة أكبر بكثير من الولايات المتحدة، حيث تقوم الجهات التشريعية بإعداد مراجعة واسعة النطاق للذكاء الاصطناعي لتحديد عناصر التكنولوجيا التي قد تحتاج إلى إخضاعها لتنظيم جديد وما يمكن أن تغطيه القوانين الحالية أولا.

في الوقت نفسه، تحاول المملكة المتحدة استخدام موقعها الجديد خارج الاتحاد الأوروبي لصياغة نظامها الأكثر مرونة، الذي من شأنه أن ينظم تطبيقات الذكاء الاصطناعي بحسب القطاع لا البرمجيات التي تقوم عليها. ومن المتوقع أن يكون النهج الأميركي والبريطاني إلى جانب الصناعة أكثر من قانون بروكسل، الذي تعرض لانتقادات شديدة من قبل صناعة التكنولوجيا.

ورغم ذلك، قد يتم فرض القيود الأكثر صرامة على مبدعي الذكاء الاصطناعي من قبل الصين في سعيها إلى تحقيق التوازن بين الأهداف المتمثلة في السيطرة على المعلومات المقسمة بواسطة النماذج التوليدية والتنافس في سباق التكنولوجيا مع الولايات المتحدة.

وتهدد هذه الأساليب المتباينة إلى حد كبير بإخضاع صناعة الذكاء الاصطناعي للوائح الناظمة المشددة والبيروقراطية، حيث يتعين على الأنظمة المحلية أن تتماشى مع البلدان الأخرى حتى يمكن السيطرة على التكنولوجيا – التي لا تقيدها الحدود – بشكل كامل.

ويحاول البعض تنسيق نهج مشترك. ففي مايو، قام زعماء مجموعة السبع بتكليف مجموعة عمل لتنسيق الأنظمة التنظيمية التي أطلق عليها اسم “عملية هيروشيما للذكاء الاصطناعي”، فهم يريدون التأكد من أن التشريعات قابلة للعمل المتبادل بين الدول الأعضاء.

وفي غضون ذلك، تستضيف المملكة المتحدة قمة عالمية للذكاء الاصطناعي في نوفمبر لمناقشة كيف يمكن للتنسيق الدولي بشأن التنظيم أن يخفف من المخاطر.

لكن لكل منطقة أفكارها الثابتة الخاصة حول أفضل السبل لتنظيم الذكاء الاصطناعي، ويحذر الخبراء من أنه مع سرعة انتشار التكنولوجيا، فإن الوقت المناسب للتوصل إلى توافق في الآراء قد بدأ ينفد بالفعل.

وفي يوليو، حذرت منظمة التعاون الاقتصادي والتنمية من أن المهن الأكثر عرضة لخطر إزاحة الذكاء الاصطناعي لها هي الوظائف الإدارية التي تتطلب مهارات عالية، التي تمثل 27 في المائة من العمالة عبر الاقتصادات الأعضاء. وشدد تقريرها على “الحاجة الملحة للتحرك” وتنسيق الاستجابات “لتجنب أن تؤدي المنافسة إلى تخفيض المعايير والجودة”.

ويقول البروفيسور ديفيد ليزلي من معهد آلان تورينج، وهو المعهد الوطني لعلوم البيانات والذكاء الاصطناعي في المملكة المتحدة: “إننا الآن في مرحلة ليس التنظيم فيها ترفا. فنحن بحاجة إلى مزيد من العمل الدولي المتضافر هنا، لأن عواقب انتشار الذكاء الاصطناعي التوليدي لا تقتصر على بلد بحد ذاته، بل عالمية”.

تأثير بروكسل

كان الاتحاد الأوروبي كالمعتاد الرائد بقانونه المتعلق بالذكاء الاصطناعي، الذي من المتوقع أن تتم الموافقة عليه بالكامل بحلول نهاية العام.

ويمكن النظر إلى هذه الخطوة على أنها محاولة لوضع نموذج يمكن للدول الأخرى محاكاته، على غرار اللائحة الأوروبية العامة لحماية البيانات، التي وفرت إطارا لقوانين حماية البيانات حول العالم.

وقد بدأ العمل على تشريع الذكاء الاصطناعي منذ أعوام عدة، عندما كان صناع السياسات حريصين على الحد من الاستخدامات المتهورة للتكنولوجيا في تطبيقات مثل التعرف على الوجوه.

ويقول دراجوس تودوراش، وهو عضو في البرلمان الأوروبي قاد تطوير المقترحات: “لقد كانت لدينا البصيرة لنرى أن الذكاء الاصطناعي جاهز للتنظيم”.

“ثم اكتشفنا أن استهداف المخاطر بدلا من التكنولوجيا هو أفضل نهج لتجنب الحواجز غير الضرورية أمام الابتكار”.

ولكن بعد أعوام من التشاور، جاء الذكاء الاصطناعي التوليدي وغير نهجهم. واستجابة لهذه التكنولوجيا، اقترح أعضاء البرلمان الأوروبي مجموعة من التعديلات لإضافتها إلى تطبيق التشريع على ما يسمى بالنماذج الأساسية، وهي التكنولوجيا الأساسية وراء منتجات الذكاء الاصطناعي التوليدي.

من شأن المقترحات أن تجعل منشئي هذه النماذج مسؤولين عن كيفية استخدام التكنولوجيا الخاصة بهم، حتى عندما يقوم طرف آخر بدمجها في نظام مختلف.

فمثلا، إذا قامت شركة أو مطور آخر بترخيص نموذج ما، فسيظل الصانع الأصلي مسؤولا عن أي انتهاكات للقانون.

يقول كينت ووكر، رئيس الشؤون العالمية في جوجل: “لا تتوقع أن يكون صانع الآلة الكاتبة مسؤولا عن شيء تشهيري. يتعين علينا أن نحدد خطا معقولا هناك، وبالنسبة لمعظم الأنظمة القانونية، فإن هذا الخط هو المكان الذي يكون فيه خطر التعرض للضرر متوقعا”.

كما سيتم إلزام صانعي النماذج بتحديد البيانات التي تم تدريب الأنظمة عليها والكشف عنها لضمان تعويض صانعي المحتوى كالنصوص أو الصور بموجب التعديلات.

ودفعت المقترحات أكثر من 150 شركة إلى التوقيع على خطاب إلى المفوضية الأوروبية، والبرلمان، والدول الأعضاء في يونيو، تحذر فيه من أن المقترحات قد “تهدد القدرة التنافسية الأوروبية”.

وقد جادلت الشركات – التي تراوحت من شركة رينو لصناعة السيارات إلى شركة هاينكن – بأن التغييرات أوجدت تكاليف امتثال متفاوتة للشركات التي تطور التكنولوجيا وتطبقها.

وقال سام ألتمان، الرئيس التنفيذي لشركة أوبن إيه آي، بشكل منفصل للصحافيين في مايو على خلفية التعديلات: “سنحاول الالتزام، لكن إذا لم نتمكن من الامتثال، فسنتوقف عن العمل”.

ثم تراجع في وقت لاحق، مغردا أن الشركة ليس لديها خطط لمغادرة أوروبا.

كما حذر بيتر شوارتز، نائب الرئيس الأول للتخطيط الاستراتيجي في شركة سيلزفورس للبرمجيات، متحدثا بصفته الشخصية، من أن هذا النهج قد يكون له تأثير في كيفية عمل بعض الشركات الأمريكية الأخرى في المنطقة.

ويقول كريس باديلا، نائب الرئيس للشؤون الحكومية والتنظيمية في شركة أي بي إم: “تميل النماذج التنظيمية إلى إفادة أولئك الموجودين في السوق حاليا ومن شأن ذلك أن يقصي الوافدين الجدد ويشل مجتمع المصادر المفتوحة بشكل أو بآخر”.

يقول باديلا: إن نماذج الرقابة يمكن أن تصل إلى حد “المغالاة في التنظيم” مع “خطر حقيقي بحدوث أضرار جانبية أو عواقب غير مقصودة”، حيث لا تستطيع معها الشركات الصغيرة الامتثال والتوسع.

وعلى النقيض من ذلك، حددت المملكة المتحدة ما تسميه إطارا “مؤيدا للابتكار” لتنظيم الذكاء الاصطناعي في وثيقة رسمية نشرت في مارس بعد طول انتظار.

وقد دعت الآن أصحاب المصلحة إلى تبادل وجهات النظر حول مقترحاتها، التي من شأنها أن ترى الحكومة تنظم كيفية استخدام أنظمة الذكاء الاصطناعي، بدلا من تنظيم التكنولوجيا نفسها.

تهدف المملكة المتحدة إلى منح المنظمين الحاليين صلاحيات للإنفاذ، ولذا فمن المأمول أن يكون هذا النظام أكثر مرونة وأسرع من البدائل الأخرى في التنفيذ.

لكن الحكومة لم تستجب بعد للتشاور أو تصدر إرشادات تنفيذية لمختلف المنظمين في القطاع، لذلك قد يستغرق الأمر أعواما قبل أن تدخل أي لائحة تنظيمية حيز التنفيذ فعليا.

الصين في مواجهة الولايات المتحدة

على الرغم من المخاوف بشأن التشريعات في أوروبا، يقول البعض: إن أكبر اللاعبين في الصناعة يولون مزيدا من الاهتمام لما تفعله القوى العظمى المنافسة في العالم.

تقول ويندي هول، الرئيسة المشاركة لمراجعة الذكاء الاصطناعي الحكومية في عام 2017 وبروفيسورة علوم الحاسوب في جامعة ساوثامبتون: “الشركات هي التي تفعل ذلك، إن سباق التسلح يجري بين الولايات المتحدة والصين. سواء أكنت تتحدث عن الاتحاد الأوروبي أو المملكة المتحدة، فأوروبا ليس لديها سيطرة على تلك الشركات إلا إذا كانت تريد التجارة في أوروبا. نحن نعتمد بشكل كبير على ما تفعله الحكومتان الصينية أو الأمريكية فيما يتعلق بتنظيم الشركات بشكل عام”.

وقد أدخلت الصين لوائح مستهدفة لمختلف التكنولوجيات الجديدة، ومنها خوارزميات الاقتراحات والذكاء الاصطناعي التوليدي، وتستعد لصياغة قانون وطني أوسع للذكاء الاصطناعي في الأعوام المقبلة.

وتتمثل أولويتها في السيطرة على المعلومات من خلال تنظيم الذكاء الاصطناعي، التي انعكست في أحدث اللوائح الناظمة للذكاء الاصطناعي التوليدي، التي تتطلب الالتزام بـ”القيم الأساسية للاشتراكية”.

وفي الوقت نفسه، يتعين على مقدمي خدمات الذكاء الاصطناعي الذين يمكن لمنتجاتهم “التأثير في الرأي العام” تقديم مراجعات أمنية، وفقا للائحة التنظيمية التي دخلت حيز التنفيذ في أغسطس. وقد حصلت حفنة من شركات التكنولوجيا الصينية، من بينها شركتا بايدو وبايت دانس، على الموافقة وأطلقت منتجاتها للذكاء الاصطناعي التوليدي للجمهور قبل أسبوعين.

ستنطبق هذه القيود أيضا على الشركات الأجنبية، ما يجعل من الصعب عليها تقديم خدمات الذكاء الاصطناعي لتوليد المحتوى للمستهلكين في الصين.

وفي الوقت نفسه، سمحت الولايات المتحدة حتى الآن للصناعة بتنظيم نفسها، مع توقيع شركات مايكروسوفت، وأوبن إيه آي، وجوجل، وأمازون، وميتا على مجموعة من الالتزامات الطوعية في البيت الأبيض في يوليو.

وتشمل الالتزامات إجراء اختبارات داخلية وخارجية لأنظمة الذكاء الاصطناعي قبل إصدارها للجمهور، الأمر الذي يساعد الأشخاص على تمييز المحتوى الذي يولده الذكاء الاصطناعي وزيادة الشفافية بشأن قدرات الأنظمة وأوجه قصورها.

يقول ناثانيال فيك، سفير وزارة الخارجية الأمريكية لشؤون الفضاء السيبراني والسياسة الرقمية: “إن طبيعة حقيقة أنها طوعية من جانب الشركات تعني أنها لا تمنع القدرة على الابتكار في هذا المجال التكنولوجي الجديد المهم. الطوعية تعني السرعة. ليس لدينا عقد من الزمان لوضع هيكل حوكمة هنا، نظرا لوتيرة التغيير التكنولوجي. لذا فإن هذه الالتزامات هي خطوة أولى.. إنها ليست الخطوة الأخيرة”.

وأشار الكونجرس إلى أنه سيتخذ نهجا مدروسا وحذرا في صياغة التشريعات. في يونيو، كشف تشاك شومر زعيم الأغلبية في مجلس الشيوخ، عن إطار عمل لتنظيم الذكاء الاصطناعي، الذي سيبدأ بما يسمى “منتديات المعرفة” للمشرعين للتعرف على التكنولوجيا من المديرين التنفيذيين والخبراء والناشطين في الصناعة.

وأشارت إدارة الرئيس جو بايدن إلى أنها تعمل على أمر تنفيذي لتعزيز “الابتكار المسؤول”، لكن من غير الواضح متى سيتم توقيعه وما هي التدابير التي سيتضمنها. وعموما، فمن المرجح أن يركز على الحد من قدرة الصين على شراء برامج الذكاء الاصطناعي بقدر تركيزه على وضع حواجز حماية للشركات الأميركية.

وتلعب التوترات الجيوسياسية أيضا دورا في قمة المملكة المتحدة في نوفمبر، حيث قالت الحكومة: إنها ستدعو “الدول ذات الفكر المماثل” للمشاركة فيها. وادعى تقرير صادر عن موقع سيفتيد أخيرا أنه قد تمت دعوة الصين، بينما تمت دعوة ست دول فقط من بين الدول الأعضاء الـ27 في الاتحاد الأوروبي. وامتنعت الحكومة عن التعليق.

يقول فيك: “نحن بحاجة إلى تحقيق التوازن هنا بين النهج الوطني والتنسيق الدولي. أعتقد أن هذه لطالما كانت نقطة توتر في هذه التكنولوجيات العالمية”.

ما الذي قد تفعله الشركات؟

سيستغرق الأمر بعض الوقت قبل أن تخضع صناعة الذكاء الاصطناعي لمستويات كبيرة من التدقيق. وحتى قانون الاتحاد الأوروبي للذكاء الاصطناعي، الذي يشارف على وضع اللمسات الأخيرة، يتضمن فترة سماح مدتها نحو عامين بعد أن يصبح قانونا لتمتثل له الشركات.

لكن معرفة الالتزام بين المناطق سيكون صعبا بالنظر لعدم وجود أرضية تنظيمية مشتركة. ستحتاج الشركات إلى دراسة كيفية العمل بعناية في أسواق محددة وما إذا كان سيتطلب منها تصميم نماذج مختلفة أو تقديم خدمات مختلفة للامتثال في منطقة معينة.

ولم تتكهن مايكروسوفت وجوجل حول ما إذا كانتا ستغيران النماذج في هذه الحالة، لكنهما قالتا: إنهما ستسعيان للامتثال للقوانين المحلية.

وعرضت جوجل مقارنة بـالطريقة التي سحبت بها سابقا بعض الخدمات من البلدان. وقد أعادت الشركة فتح خدمة الأخبار في إسبانيا العام الماضي فقط بعد إغلاقها منذ ما يقرب من عقد بسبب تشريع من شأنه أن يجبر الشركة والكيانات الأخرى المختصة بتجميع الأخبار على تعويض الناشرين عن مقتطفات صغيرة من المحتوى.

هذا العام، أجلت الشركة إطلاق برنامجها بارد للدردشة باستخدام الذكاء الاصطناعي في الاتحاد الأوروبي حتى يوليو، بعد تأخير أولي بسبب تعبير الجهة المنظمة للخصوصية عن مخاوفها بشأن كيفية حماية بيانات المستخدمين. وتم إطلاقه في المملكة المتحدة والولايات المتحدة في مارس. وقد أجرت الشركة تغييرات لتهدئة مخاوف الهيئة التنظيمية.

وإلى أن يبدأ التشريع الأساسي في التأثير، ستستمر شركات التكنولوجيا في مراقبة نفسها إلى حد كبير. بالنسبة لها، قد يبدو هذا وكأنه الترتيب الصحيح للأشياء – حيث إنها في أفضل وضع للاتفاق على معايير جديدة للتكنولوجيا أثناء نشأتها ونموها، وبعد ذلك يمكن للمنظمين تقنينها إذا لزم الأمر.

وقد انضمت أربع من أكبر الشركات وأكثرها نفوذا في مجال الذكاء الاصطناعي – وهي أنثروبيك وجوجل ومايكروسوفت وأوبن إيه أي – معا في يوليو لإنشاء منتدى فرونتير موديل فورم للعمل سوية على كيفية تطوير التكنولوجيا على نحو مسؤول.

لكن الناشطين يشيرون إلى كيفية فشل هذا النهج خلال الثورة التكنولوجية الكبيرة الأخيرة، مع ظهور وسائل التواصل الاجتماعي.

لا يزال التشريع الذي يحكم أمثال فيسبوك وإنستجرام وتيك توك في طور التنفيذ، فقد بدأ قانون الخدمات الرقمية في الاتحاد الأوروبي يدخل حيز التنفيذ الآن، ولم يتم الانتهاء بعد من مشروع قانون السلامة على الإنترنت في المملكة المتحدة بعد ستة أعوام، وكان التنظيم الأميركي لهذا القطاع في المقام الأول على مستوى الولاية. وفي ظل الغياب شبه التام للتدقيق التنظيمي، ازدهرت المعلومات المضللة والمحتوى الضار على المنصات الأكثر شعبية، مع عواقب قليلة طالت أصحابها.

ويقول ليزلي من معهد آلان تورينج: “من الواضح أن التنظيم الذاتي لم ينجح. لقد تم تشكيل جزء كبير من حياتنا السياسية والاجتماعية من خلال سلوك “السرعة في الابتكار حتى لو كانت هناك أخطاء” في وادي السيليكون، الذي كان كله من أجل التنظيم الذاتي. “لا يمكننا الاستمرار في ارتكاب الأخطاء نفسها”.

نهج الاتحاد الأوروبي

صاغت بروكسل إجراءات صارمة بشأن استخدام الذكاء الاصطناعي من شأنها أن تضع العبء على مجموعات التكنولوجيا للتأكد من أن نماذجها لا تنتهك القواعد. ومن المتوقع أن تتم الموافقة على قانونها الخاص بالذكاء الاصطناعي الرائد بالكامل بحلول نهاية العام، لكنه يتضمن فترة سماح مدتها عامين بعد أن يصبح قانونا للشركات للامتثال له.

نهج المملكة المتحدة

تحاول لندن استغلال موقعها الجديد خارج الاتحاد الأوروبي لصياغة نظامها الأكثر مرونة الذي من شأنه أن ينظم تطبيقات الذكاء الاصطناعي بحسب القطاع لا البرامج التي يقوم عليها. وتستضيف المملكة المتحدة قمة عالمية للذكاء الاصطناعي في نوفمبر لمناقشة كيف يمكن للتنسيق الدولي بشأن التنظيم أن يخفف من الأخطار.

نهج الولايات المتحدة

يقوم المشرعون بإعداد مراجعة موسعة حول الذكاء الاصطناعي لتحديد عناصر التكنولوجيا التي قد تحتاج إلى الخضوع للوائح جديدة أولا، وما يمكن أن تغطيه القوانين الحالية. وقد سمحت واشنطن للصناعة حتى الآن بتنظيم نفسها، حيث وقعت كل من مايكروسوفت وأوبن إيه أي وجوجل وأمازون وميتا على مجموعة من الالتزامات الطوعية في يوليو.

نهج الصين

قد تفرض بكين أكثر القيود صرامة على صانعي الذكاء الاصطناعي، حيث تسعى إلى تحقيق التوازن في الأهداف بين التحكم في المعلومات التي تقسمها النماذج التوليدية والتنافس في سباق التكنولوجيا مع الولايات المتحدة. وقد تم إدخال لوائح مستهدفة لمختلف التكنولوجيات الجديدة، حيث يستعد البلد لصياغة قانون أوسع للذكاء الاصطناعي في الأعوام المقبلة.

اترك رد

Your email address will not be published.