أخبار

سُلطة الخوارزميات.. أوروبا تسعى للحد منها

AI بالعربي – “متابعات”

سيتم حظر استخدام التعرف على الوجه للمراقبة، أو الخوارزميات التي تتلاعب بالسلوك البشري، بموجب لوائح الاتحاد الأوروبي المقترحة بشأن الذكاء الاصطناعي.

كما وعدت المقترحات، التي تم تسريبها قبل نشرها الرسمي، بقواعد جديدة صارمة لما يعتبر ذكاءً اصطناعيًا عالي الخطورة. يتضمن ذلك الخوارزميات التي تستخدمها الشرطة. وقال الخبراء إن القواعد غامضة وتحتوي على ثغرات.

ويُعفى من ذلك استخدام الذكاء الاصطناعي في الجيش، وكذلك الأنظمة التي تستخدمها السلطات من أجل حماية الأمن العام. وشملت القائمة المقترحة لأنظمة الذكاء الاصطناعي المحظورة تلك المصممة أو المستخدمة بطريقة تتلاعب بالسلوك البشري أو الآراء أو القرارات وتجعل الشخص يتصرف أو يشكل رأيًا أو يتخذ قرارًا يضرّ به.

إلى جانب أنظمة الذكاء الاصطناعي المستخدمة في المراقبة العشوائية المطبقة بطريقة عامة. وأنظمة الذكاء الاصطناعي المستخدمة للتقييم الاجتماعي. وتلك التي تستغل المعلومات أو التنبؤات وتستهدف نقاط ضعف الأشخاص والمجموعات.

وغرّد محلل السياسة الأوروبية دانييل لوفر قائلاً إن “التعريفات كانت فضفاضة للغاية. كيف نحدد ما يلحق الضرر بشخص ما ومن يقيم هذا؟”.

ويتعين على الدول الأعضاء وفق المقترحات الجديدة تطبيق المزيد من الرقابة، بما في ذلك الحاجة إلى تعيين هيئات تقييم لاختبار هذه الأنظمة واعتمادها وفحصها. وأيّ شركة تقوم بتطوير خدمات محظورة، أو تفشل في توفير المعلومات الصحيحة عنها، قد تواجه غرامات تصل إلى 4 في المئة من إيراداتها العالمية، على غرار الغرامات على انتهاكات اللائحة العامة لحماية البيانات.

Opinion almost equally divided on new rules for 'high-risk' artificial intelligence | Science|Business

وتشمل الأمثلة عالية الخطورة على الذكاء الاصطناعي الأنظمة التي تعطي الأولوية في إرسال خدمات الطوارئ، والأنظمة التي تحدد الوصول إلى المعاهد التعليمية وتلك التي تقيّم الجدارة الائتمانية والخاصة بإجراء تقييمات المخاطر الفردية وخوارزميات التنبؤ بالجريمة.

وأضاف لوفر أنه ينبغي “توسيع نطاق المقترحات لتشمل جميع أنظمة الذكاء الاصطناعي في القطاع العام، بغض النظر عن مستوى المخاطر المحدد لها”.

وقال هربرت سانيكر، المحامي في كليفورد تشانس “سوف يركز مطورو الذكاء الاصطناعي بشدة على هذه المقترحات، حيث سيتطلب ذلك تحولًا جوهريًا في كيفية تصميم الذكاء الاصطناعي”. فهذه العملية قذرة وخطيرة في الوقت نفسه، وقد سلط مايكل فيل، وهو محاضر في الحقوق الرقمية والتنظيم في جامعة كوليدج لندن، الضوء على بند من شأنه أن يجبر المنظمات على الإفصاح عن استخدام تقنية التزييف العميق، وهو استخدام مثير للجدل بشكل خاص للذكاء الاصطناعي لإنشاء بشر مزيفين أو للتلاعب بالصور ومقاطع الفيديو لأشخاص حقيقيين .

لكنه أضاف أن شركات التكنولوجيا التي استخدمت الذكاء الاصطناعي “للتلاعب بالمستخدمين” قد تضطر أيضًا إلى تغيير ممارساتها. مع هذا التشريع، كان على المفوضية الأوروبية أن تسير على حبل مشدود بين ضمان استخدام الذكاء الاصطناعي “بهدف نهائي هو زيادة رفاهية الإنسان”، وكذلك التأكد من أنه لا يعيق دول الاتحاد الأوروبي من الدخول في منافسة مع الولايات المتحدة والصين على الابتكارات التكنولوجية.

close


اشترك ليصلك كل جديد

نحن لا نرسل البريد العشوائي! اقرأ سياسة الخصوصية الخاصة بنا لمزيد من المعلومات.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى