AI بالعربي – متابعات
توصل الاتحاد الأوروبي إلى اتفاق سياسي جديد لتبسيط قواعد تنظيم الذكاء الاصطناعي، مع تشديد الرقابة على الاستخدامات عالية الخطورة في القطاعات الحساسة.
ويهدف الاتفاق إلى دعم الابتكار داخل أوروبا، مع حماية المواطنين من التطبيقات الضارة التي قد تنتهك الخصوصية أو الحقوق الأساسية.
وتشمل القواعد الجديدة أنظمة الذكاء الاصطناعي المستخدمة في القياسات الحيوية، والتعليم، والتوظيف، والهجرة، واللجوء، ومراقبة الحدود، والبنية التحتية الحيوية.
اتفاق أوروبي لتنظيم الذكاء الاصطناعي
رحبت المفوضية الأوروبية بالاتفاق بين البرلمان الأوروبي والمجلس الأوروبي بشأن قواعد أكثر بساطة وملاءمة للابتكار.
ويأتي الاتفاق ضمن جهود الاتحاد الأوروبي لتسهيل تطبيق قانون الذكاء الاصطناعي على الشركات، دون التخلي عن معايير السلامة وحماية المجتمع.
وكانت المفوضية قد اقترحت قبل أشهر حزمة “الأومنيبوس الرقمي للذكاء الاصطناعي”، ضمن خطة أوسع لتبسيط التشريعات الرقمية الأوروبية.
قواعد للأنظمة عالية الخطورة
ينص الاتفاق على جدول زمني واضح لتطبيق قواعد أنظمة الذكاء الاصطناعي عالية الخطورة.
ومن المقرر أن يبدأ تطبيق هذه القواعد في 2 ديسمبر 2027، على الأنظمة المستخدمة في المجالات الحساسة.
وتشمل هذه المجالات القياسات الحيوية، والبنية التحتية الحيوية، والتعليم، والتوظيف، والهجرة، واللجوء، ومراقبة الحدود.
ويمنح هذا الجدول الشركات والجهات التنظيمية وقتًا كافيًا لتجهيز المعايير التقنية وأدوات الدعم اللازمة.
حماية المواطنين من الاستخدامات الضارة
يركز الاتفاق على حماية الأفراد من التطبيقات التي تستخدم الذكاء الاصطناعي بطرق غير مسؤولة.
ويشدد الاتحاد الأوروبي على حظر الأنظمة التي تنتج محتوى غير لائق دون موافقة الأشخاص المعنيين.
كما يستهدف الاتفاق مواجهة التطبيقات التي تولد صورًا مسيئة أو محتوى ضارًا باستخدام تقنيات التلاعب الرقمي.
وتشمل القيود أيضًا المواد المرتبطة بالاستغلال الجنسي للأطفال، والتطبيقات المعروفة باسم “التعري بالذكاء الاصطناعي” أو “إخفاء الهوية”.
توازن بين الابتكار والرقابة
يسعى الاتحاد الأوروبي من خلال الاتفاق إلى تحقيق توازن بين دعم شركات التكنولوجيا وحماية المجتمع.
فالقواعد الجديدة لا تستهدف تعطيل الابتكار، بل تهدف إلى تنظيم الاستخدامات التي قد تسبب مخاطر حقيقية.
ويرى الاتحاد أن الذكاء الاصطناعي يمكن أن يدعم الاقتصاد الأوروبي، إذا جرى استخدامه ضمن إطار قانوني واضح ومسؤول.
وتأتي هذه الخطوة في وقت تتسارع فيه تطبيقات الذكاء الاصطناعي داخل المؤسسات الحكومية والخاصة.
ماذا تعني القواعد الجديدة للشركات؟
تعني القواعد الجديدة أن الشركات الأوروبية ستحتاج إلى الالتزام بمعايير أوضح عند تطوير أنظمة الذكاء الاصطناعي عالية الخطورة.
وسيتعين على الشركات مراجعة طريقة جمع البيانات، وآليات الاختبار، ودرجة الشفافية في تشغيل الأنظمة الذكية.
كما ستحتاج المؤسسات العاملة في القطاعات الحساسة إلى تقييم المخاطر قبل استخدام هذه التقنيات على نطاق واسع.
وقد يساعد تبسيط القواعد الشركات على فهم المتطلبات التنظيمية بشكل أسرع، مع تقليل الغموض القانوني.
الذكاء الاصطناعي تحت رقابة أوسع
يعكس الاتفاق الأوروبي تحولًا واضحًا في طريقة التعامل مع الذكاء الاصطناعي.
فالدول لم تعد تكتفي بتشجيع الابتكار فقط، بل أصبحت تركز أيضًا على حماية الخصوصية والحقوق الأساسية.
ومن المتوقع أن تؤثر هذه القواعد في شركات التكنولوجيا داخل أوروبا وخارجها، خاصة الشركات التي تقدم خدماتها للمستخدمين الأوروبيين.
ويؤكد الاتفاق أن الذكاء الاصطناعي سيظل محورًا رئيسيًا في التشريعات الرقمية خلال السنوات المقبلة.








