الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة
AI بالعربي – متابعات
أعلنت المفوضية الأوروبية عن إصدار مجموعة من الإرشادات الجديدة التي تهدف إلى مساعدة مطوّري نماذج الذكاء الاصطناعي المصنّفة ضمن فئة “ذات المخاطر النظامية” على الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي، المعروف باسم قانون الذكاء الاصطناعي (AI Act).
وتأتي هذه الخطوة في سياق الرد على المخاوف التي أبدتها بعض الشركات التقنية بشأن الأعباء التنظيمية التي يفرضها القانون، إذ توفّر الإرشادات الجديدة قدرًا أكبر من الوضوح حول متطلبات الامتثال، في ظل عقوبات قد تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية للشركات المخالفة، في حين تبدأ الغرامات من 7.5 مليون يورو أو 1.5% من الإيرادات السنوية.
وينص القانون، الذي تم إقراره رسميًا العام الماضي، على بدء تطبيقه في 2 أغسطس 2025 على النماذج المصنّفة على أنها عالية الخطورة، والتي تشمل النماذج الأساسية المطوّرة من قبل شركات رائدة مثل Google، OpenAI، Meta، Anthropic وMistral، في حين سيكون أمام الشركات مهلة إضافية حتى 2 أغسطس 2026 للامتثال الكامل لجميع المتطلبات.
ما المقصود بـ”المخاطر النظامية”؟
تُعرّف المفوضية الأوروبية النماذج ذات المخاطر النظامية على أنها تلك التي تمتلك قدرات حوسبية متقدمة للغاية، وقد يكون لها تأثير واسع النطاق على الصحة العامة، والسلامة، والحقوق الأساسية، أو النظام الاجتماعي بشكل عام.
وبموجب الإرشادات، ستُطلب من هذه النماذج الالتزام بعدد من الإجراءات التنظيمية، تشمل:
- تقييم شامل للنموذج.
- تحليل وتخفيف المخاطر المحتملة.
- إجراء اختبارات مقاومة لضمان سلامة الأداء.
- الإبلاغ عن الحوادث أو الانتهاكات الخطيرة إلى المفوضية.
- توفير تدابير أمنية صارمة ضد السرقة أو سوء الاستخدام.
معايير الشفافية للنماذج العامة
بالنسبة إلى نماذج الذكاء الاصطناعي العامة أو الأساسية، مثل تلك التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT، فإن القانون يُلزمها بتطبيق معايير شفافية صارمة. وتشمل هذه المتطلبات:
- إعداد وثائق تقنية مفصّلة.
- الالتزام بسياسات واضحة لحقوق الملكية الفكرية.
- تقديم ملخصات دقيقة للمحتوى المستخدم في تدريب الخوارزميات.
دعم للتنفيذ السلس
من جانبها، أكدت هينا فيركونن، المسؤولة عن ملف التكنولوجيا في الاتحاد الأوروبي، أن هذه الإرشادات تهدف إلى “ضمان تطبيق فعّال وسلس لقانون الذكاء الاصطناعي، مع تحقيق التوازن بين الابتكار والحماية المجتمعية”.
ويُعد هذا التحرك الأوروبي من بين أبرز المبادرات التشريعية العالمية لتنظيم تقنيات الذكاء الاصطناعي، وسط تصاعد النقاشات الدولية حول أهمية تنظيم هذا القطاع المتسارع بما يضمن سلامة الأفراد وحماية القيم الديمقراطية.