الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

AI بالعربي – متابعات

أعلنت المفوضية الأوروبية عن إصدار مجموعة من الإرشادات الجديدة التي تهدف إلى مساعدة مطوّري نماذج الذكاء الاصطناعي المصنّفة ضمن فئة “ذات المخاطر النظامية” على الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي، المعروف باسم قانون الذكاء الاصطناعي (AI Act).

وتأتي هذه الخطوة في سياق الرد على المخاوف التي أبدتها بعض الشركات التقنية بشأن الأعباء التنظيمية التي يفرضها القانون، إذ توفّر الإرشادات الجديدة قدرًا أكبر من الوضوح حول متطلبات الامتثال، في ظل عقوبات قد تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية للشركات المخالفة، في حين تبدأ الغرامات من 7.5 مليون يورو أو 1.5% من الإيرادات السنوية.

وينص القانون، الذي تم إقراره رسميًا العام الماضي، على بدء تطبيقه في 2 أغسطس 2025 على النماذج المصنّفة على أنها عالية الخطورة، والتي تشمل النماذج الأساسية المطوّرة من قبل شركات رائدة مثل Google، OpenAI، Meta، Anthropic وMistral، في حين سيكون أمام الشركات مهلة إضافية حتى 2 أغسطس 2026 للامتثال الكامل لجميع المتطلبات.

ما المقصود بـ”المخاطر النظامية”؟

تُعرّف المفوضية الأوروبية النماذج ذات المخاطر النظامية على أنها تلك التي تمتلك قدرات حوسبية متقدمة للغاية، وقد يكون لها تأثير واسع النطاق على الصحة العامة، والسلامة، والحقوق الأساسية، أو النظام الاجتماعي بشكل عام.

وبموجب الإرشادات، ستُطلب من هذه النماذج الالتزام بعدد من الإجراءات التنظيمية، تشمل:

  • تقييم شامل للنموذج.
  • تحليل وتخفيف المخاطر المحتملة.
  • إجراء اختبارات مقاومة لضمان سلامة الأداء.
  • الإبلاغ عن الحوادث أو الانتهاكات الخطيرة إلى المفوضية.
  • توفير تدابير أمنية صارمة ضد السرقة أو سوء الاستخدام.

معايير الشفافية للنماذج العامة

بالنسبة إلى نماذج الذكاء الاصطناعي العامة أو الأساسية، مثل تلك التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT، فإن القانون يُلزمها بتطبيق معايير شفافية صارمة. وتشمل هذه المتطلبات:

  • إعداد وثائق تقنية مفصّلة.
  • الالتزام بسياسات واضحة لحقوق الملكية الفكرية.
  • تقديم ملخصات دقيقة للمحتوى المستخدم في تدريب الخوارزميات.

دعم للتنفيذ السلس

من جانبها، أكدت هينا فيركونن، المسؤولة عن ملف التكنولوجيا في الاتحاد الأوروبي، أن هذه الإرشادات تهدف إلى “ضمان تطبيق فعّال وسلس لقانون الذكاء الاصطناعي، مع تحقيق التوازن بين الابتكار والحماية المجتمعية”.

ويُعد هذا التحرك الأوروبي من بين أبرز المبادرات التشريعية العالمية لتنظيم تقنيات الذكاء الاصطناعي، وسط تصاعد النقاشات الدولية حول أهمية تنظيم هذا القطاع المتسارع بما يضمن سلامة الأفراد وحماية القيم الديمقراطية.

Related Posts

“جوجل” تطلق سباق مراكز البيانات في الفضاء لتسريع الذكاء الاصطناعي

AI بالعربي – متابعات في خطوة وُصفت بالجريئة، كشفت جوجل عن مشروع بحثي جديد يهدف إلى إنشاء مراكز بيانات تعمل بالذكاء الاصطناعي في الفضاء، لتجاوز قيود الطاقة والموارد على الأرض.…

الذكاء الاصطناعي يضغط على الأسواق العالمية.. موجة بيع تقودها شركات التقنية

AI بالعربي – متابعات شهدت الأسواق الآسيوية يوم الأربعاء تراجعًا حادًا، وسط مخاوف من تضخم فقاعة استثمارات الذكاء الاصطناعي. انخفض مؤشر “كوسبي” الكوري الجنوبي بنسبة 6.2% خلال بعض الجلسات، بينما…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 81 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 237 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 325 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 334 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 288 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 327 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟