قانون الذكاء الاصطناعي في الاتحاد الأوربي: تاريخه وتأثيره المزدوج

81

AI بالعربي – ترجمات

سارع صناع السياسات في أوروبا إلى وضع قواعد وتحذيرات لشركات التكنولوجيا منذ إطلاق ChatGPT، وكان هذا الأسبوع حاسمًا في وضع قواعد الذكاء الاصطناعي في الاتحاد الأوروبي.

وافق البرلمان الأوروبي، يوم الأربعاء الماضي، على قانون الذكاء الاصطناعي، الذي يتخذ نهجًا قائمًا على المخاطر لضمان قيام الشركات بإطلاق المنتجات التي تتوافق مع القانون قبل إتاحتها للجمهور.

وبعد يوم واحد، طلبت المفوضية الأوروبية من شركات Bing، وFacebook، وGoogle Search، وInstagram، وSnapchat، وTikTok، وYouTube، وX، بموجب تشريع منفصل، توضيح كيفية كبحها لمخاطر الذكاء الاصطناعي التوليدي.

في حين أن الاتحاد الأوروبي يشعر بالقلق في الغالب بشأن هلوسة الذكاء الاصطناعي (عندما ترتكب النماذج أخطاء وتختلق الأشياء)، والانتشار الفيروسي للتزييف العميق، والتلاعب الآلي بالذكاء الاصطناعي الذي يمكن أن يضلل الناخبين في الانتخابات، فإن مجتمع التكنولوجيا لديه مخاوفه الخاصة من التشريعات. بينما يقول بعض الباحثين إنها لا تذهب إلى حد كافٍ.

احتكارات التكنولوجيا

وقال “ماكس فون ثون”، مدير أوروبا في معهد الأسواق المفتوحة: في حين أن بروكسل تستحق “ائتمانًا حقيقيًا” لكونها الولاية القضائية الأولى على مستوى العالم التي تمرر لوائح تخفف من مخاطر الذكاء الاصطناعي العديدة، إلا أن هناك العديد من المشاكل في الاتفاقية النهائية.

وقال لـ”يورونيوز نكست”: “إن هناك ثغرات كبيرة أمام السلطات العامة وتنظيمًا ضعيفًا نسبيًا لأكبر نماذج المؤسسات التي تشكل الضرر الأكبر”.

النماذج الأساسية هي نماذج تعلم آلي يتم تدريبها باستخدام البيانات، ويمكن استخدامها لأداء مجموعة متنوعة من المهام، مثل كتابة القصائد. على سبيل المثال، يعتبر ChatGPT نموذجًا أساسيًا في هذا السياق.

ومع ذلك، فإن أكبر مخاوف “فون ثون”، هي احتكارات التكنولوجيا.

وقال: “إن قانون الذكاء الاصطناعي غير قادر على معالجة التهديد الأول الذي يشكله الذكاء الاصطناعي حاليًا: وهو دوره في زيادة وترسيخ القوة القصوى التي تتمتع بها بعض شركات التكنولوجيا المهيمنة بالفعل في حياتنا الشخصية، واقتصاداتنا، وديمقراطياتنا”.

وبالمثل، قال إن المفوضية الأوروبية يجب أن تكون حذرة من الانتهاكات الاحتكارية في النظام البيئي للذكاء الاصطناعي.

“يجب على الاتحاد الأوروبي أن يفهم أن حجم المخاطر التي يفرضها الذكاء الاصطناعي يرتبط ارتباطًا وثيقًا بحجم وقوة الشركات المهيمنة التي تقوم بتطوير هذه التقنيات ونشرها. وقال “فون ثون”: “لا يمكنك التعامل بنجاح مع الأول حتى تعالج الأخير”.

أصبح تهديد احتكارات الذكاء الاصطناعي تحت الأضواء، الشهر الماضي، بعد أن تبين أن الشركة الفرنسية الناشئة “ميسترال للذكاء الاصطناعي” كانت في شراكة مع مايكروسوفت.

بالنسبة للبعض في الاتحاد الأوروبي، كان الأمر بمثابة صدمة؛ لأن فرنسا ضغطت من أجل تقديم تنازلات لقانون الذكاء الاصطناعي للشركات مفتوحة المصدر مثل “Mistral”.

لحظة تاريخية

لكن العديد من الشركات الناشئة رحبت بالوضوح الذي جلبته اللائحة الجديدة.

وقال “أليكس كومبيسي”، المؤسس المشارك والرئيس التنفيذي لشركة Giskard الفرنسية للذكاء الاصطناعي مفتوح المصدر: “إن اعتماد برلمان الاتحاد الأوروبي النهائي لقانون الاتحاد الأوروبي بشأن الذكاء الاصطناعي، يعد لحظة تاريخية ويبعث على الارتياح”.

وقال لـ”يورونيوز نكست”: “بينما يفرض القانون قيودًا وقواعد إضافية على مطوري أنظمة الذكاء الاصطناعي ونماذج الأساس عالية المخاطر، والتي تعتبر” مخاطر نظامية”، فإننا واثقون من إمكانية تنفيذ هذه الضوابط والتوازنات بشكل فعال”.

وقال: “إن هذه اللحظة التاريخية تمهد الطريق لمستقبل يتم فيه تسخير الذكاء الاصطناعي بشكل مسؤول، وتعزيز الثقة وضمان سلامة الجميع”.

يعمل التشريع من خلال التمييز بين المخاطر التي تفرضها النماذج التأسيسية، التي تعتمد على القوة الحاسوبية التي تدربها. يتم تنظيم منتجات الذكاء الاصطناعي التي تتجاوز حاجز قوة الحوسبة بشكل أكثر صرامة.

ويُنظر إلى التصنيف كنقطة انطلاق ويمكن للجنة، مثل التعاريف الأخرى، أن تراجعه.

الصالح العام

ولكن ليس الجميع على متن الطائرة مع التصنيف.

في منتدى المعلومات والديمقراطية، صرحت “كاثرينا زوغل”، مديرة السياسات: “من وجهة نظري، يجب تصنيف أنظمة الذكاء الاصطناعي المستخدمة في مجال المعلومات على أنها عالية المخاطر، مما يتطلب منها الالتزام بقواعد أكثر صرامة، وهو ما لا ينطبق صراحةً على قانون الذكاء الاصطناعي المعتمد في الاتحاد الأوروبي”.

وقالت لـ”يورونيوز نكست”: “يمكن للمفوضية التي لديها القدرة على تعديل حالات استخدام الأنظمة عالية المخاطر، أن تذكر صراحة أن أنظمة الذكاء الاصطناعي المستخدمة في مجال المعلومات عالية المخاطر، مع الأخذ في الاعتبار تأثيرها على الحقوق الأساسية”.

لا يمكن للشركات الخاصة أن تكون الوحيدة التي تقود مستقبلنا المشترك. وأضافت: “يجب أن يكون الذكاء الاصطناعي منفعة عامة”.

لكن آخرين يجادلون بأن الشركات تحتاج أيضًا إلى إبداء كلمتها وأن تكون قادرة على العمل مع الاتحاد الأوروبي.

“من الضروري أن يستغل الاتحاد الأوروبي ديناميكية القطاع الخاص، الذي سيكون القوة الدافعة وراء مستقبل الذكاء الاصطناعي. وقالت “جولي لين تيجلاند”، الشريك الإداري في أوروبا والشرق الأوسط والهند وأفريقيا في EY: “إن تحقيق هذا الأمر بشكل صحيح سيكون مهمًا لجعل أوروبا أكثر تنافسية وجاذبية للمستثمرين”.

طعم حلو ومر

بالنسبة للشركات الناشئة والمؤسسات الصغيرة والمتوسطة الحجم، قد يعني ذلك الكثير من العمل.

وقالت “ماريان توردو بيتكر”، مديرة الشؤون العامة في فرانس ديجيتال: “هذا القرار له طعم حلو ومر”.

“في حين أن قانون الذكاء الاصطناعي يستجيب لتحدٍ كبير فيما يتعلق بالشفافية والأخلاق، فإنه مع ذلك يفرض التزامات كبيرة على جميع الشركات التي تستخدم أو تعمل على تطوير الذكاء الاصطناعي، على الرغم من بعض التعديلات المخطط لها بالنسبة للشركات الناشئة والشركات الصغيرة والمتوسطة، ولا سيما من خلال بيئة الحماية التنظيمية.

وأضافت: “نخشى أن يخلق النص ببساطة حواجز تنظيمية إضافية ستفيد المنافسة الأميركية والصينية، وتقلل من فرص ظهور أبطال الذكاء الاصطناعي الأوروبيين”.

التنفيذ الفعال

ولكن على الرغم من أن قانون الذكاء الاصطناعي قد تم التوصل إليه، فإن تنفيذه هو التحدي التالي.

“والآن يتحول التركيز إلى التنفيذ والتنفيذ الفعال. وقال “ريستو أوك”، قائد أبحاث الاتحاد الأوروبي في معهد مستقبل الحياة غير الربحي، لـ”يورونيوز نكست”: “يتطلب هذا أيضًا اهتمامًا متجددًا بالتشريعات التكميلية”.

وتشمل هذه التشريعات التكميلية توجيه مسؤولية الذكاء الاصطناعي، الذي يهدف إلى مساعدة مطالبات المسؤولية عن الأضرار الناجمة عن المنتجات والخدمات التي تدعم الذكاء الاصطناعي، ومكتب الاتحاد الأوروبي للذكاء الاصطناعي، الذي يهدف إلى تبسيط عملية إنفاذ القواعد.

“إن الأشياء الأساسية لضمان أن القانون يستحق الورق الذي كتب عليه، هو أن مكتب الذكاء الاصطناعي لديه الموارد اللازمة لأداء المهام التي تم تعيينها له، وأن قواعد الممارسات الخاصة بالذكاء الاصطناعي للأغراض العامة، تمت صياغتها بشكل جيد مع تضمين الحقوق المدنية.

المصدر: euronews.next 

اترك رد

Your email address will not be published.