قانون الذكاء الاصطناعي الأوروبي يدخل حيّز التنفيذ في مرحلته الثانية ويبدأ تطبيقه على النماذج عالية الخطورة

قانون الذكاء الاصطناعي الأوروبي يدخل حيّز التنفيذ في مرحلته الثانية ويبدأ تطبيقه على النماذج عالية الخطورة

قانون الذكاء الاصطناعي الأوروبي يدخل حيّز التنفيذ في مرحلته الثانية ويبدأ تطبيقه على النماذج عالية الخطورة

AI بالعربي – متابعات

دخل قانون الذكاء الاصطناعي الأوروبي المعروف باسم “AI Act” مرحلته الثانية من التطبيق الفعلي اعتبارًا من 2 أغسطس 2025، في خطوة تمثل تحولًا جوهريًا نحو تنظيم أكثر صرامة لاستخدامات الذكاء الاصطناعي داخل الاتحاد الأوروبي. ويُعد هذا القانون أول إطار تشريعي شامل في العالم ينظم استخدام تقنيات الذكاء الاصطناعي بناءً على مستوى المخاطر التي تمثلها على الأفراد والمجتمع.

مقاربة أوروبية قائمة على تصنيف المخاطر

يعتمد القانون الأوروبي للذكاء الاصطناعي نهجًا تدريجيًا يرتكز على تقييم المخاطر، حيث يقسّم التطبيقات إلى أربع فئات رئيسية: استخدامات محظورة بالكامل باعتبارها “غير مقبولة”، وأنظمة عالية الخطورة تخضع لقيود صارمة، وأنظمة محدودة المخاطر تتطلب مستوى أقل من الامتثال، وأخيرًا الأنظمة منخفضة المخاطر التي لا تستلزم أي تدخل تنظيمي مباشر. ويهدف هذا التصنيف إلى ضمان سلامة الأفراد دون إعاقة الابتكار التقني في القارة الأوروبية.

بدء التطبيق الفعلي على النماذج ذات المخاطر المنهجية

تشمل المرحلة الحالية من التطبيق فرض متطلبات تنظيمية جديدة على النماذج المصنّفة ضمن فئة “المخاطر المنهجية”، وهي النماذج القوية والمتعددة الاستخدامات القادرة على التأثير في قطاعات متعددة مثل التعليم، الصحة، الأمن، والحوكمة. وتمتد هذه الإجراءات لتطال الشركات العالمية الكبرى التي تطور أنظمة ذكاء اصطناعي متقدمة، بما في ذلك النماذج التوليدية مثل ChatGPT وGemini وClaude. وتشمل المتطلبات الجديدة معايير الشفافية، ومراقبة الأداء، وتقييمات الأمان، وتقارير دورية للجهات التنظيمية في الاتحاد الأوروبي.

غرامات رادعة لضمان الالتزام الكامل

صُممت آلية العقوبات المالية في القانون لتكون فعالة ورادعة حتى لأضخم شركات التقنية في العالم. وتتراوح الغرامات بين 7.5 مليون يورو أو 1.5% من الإيرادات السنوية العالمية للشركة (أيهما أعلى) في حال خرق المتطلبات العامة، وتصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية للانتهاكات الخطيرة، خاصة في حالات استخدام الذكاء الاصطناعي لأغراض ممنوعة مثل المراقبة الجماعية أو التلاعب النفسي العميق.

الهدف من القانون تحقيق التوازن بين الابتكار والحماية

يرى واضعو القانون أن الهدف الأساسي من AI Act هو إيجاد توازن دقيق بين حماية الحقوق الأساسية للمواطنين الأوروبيين وبين تشجيع الابتكار في مجال الذكاء الاصطناعي. ويسعى الاتحاد الأوروبي إلى أن يكون بيئة رائدة في الذكاء الاصطناعي الآمن والمسؤول، مع تعزيز الثقة العامة بهذه التكنولوجيا وتحديد إطار قانوني مرن يسهل التوسع في تطوير التطبيقات المفيدة والآمنة.

الموعد النهائي للتطبيق الكامل يقترب

من المقرر أن يُستكمل تنفيذ باقي مراحل القانون على مدار الـ18 شهرًا المقبلة، حيث ستخضع جميع الأنظمة عالية الخطورة لمتطلبات اعتماد صارمة اعتبارًا من منتصف عام 2026، بما يشمل أنظمة التعرف على الوجه، وأنظمة الذكاء الاصطناعي المستخدمة في التوظيف والتعليم والقضاء. كما سيتم إنشاء قاعدة بيانات أوروبية مفتوحة تضم معلومات عن الأنظمة الخاضعة للتنظيم، بما يعزز الشفافية ويتيح رقابة عامة أوسع.

أوروبا ترسم معايير عالمية لتنظيم الذكاء الاصطناعي

مع بدء دخول قانون الذكاء الاصطناعي الأوروبي حيز التنفيذ، تبرز أوروبا كمركز تشريعي عالمي في تنظيم تقنيات الذكاء الاصطناعي. ويراقب العالم عن كثب هذه التجربة الرائدة التي قد تتحول إلى نموذج عالمي، خاصة مع بدء مناقشات مماثلة في الولايات المتحدة وآسيا حول ضرورة سنّ قوانين تضمن الاستخدام الآمن والعادل لتقنيات الذكاء الاصطناعي في المستقبل القريب.