الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

الاتحاد الأوروبي يُصدر قواعد صارمة لتنظيم نماذج الذكاء الاصطناعي عالية الخطورة

AI بالعربي – متابعات

أعلنت المفوضية الأوروبية عن إصدار مجموعة من الإرشادات الجديدة التي تهدف إلى مساعدة مطوّري نماذج الذكاء الاصطناعي المصنّفة ضمن فئة “ذات المخاطر النظامية” على الامتثال لقانون الاتحاد الأوروبي للذكاء الاصطناعي، المعروف باسم قانون الذكاء الاصطناعي (AI Act).

وتأتي هذه الخطوة في سياق الرد على المخاوف التي أبدتها بعض الشركات التقنية بشأن الأعباء التنظيمية التي يفرضها القانون، إذ توفّر الإرشادات الجديدة قدرًا أكبر من الوضوح حول متطلبات الامتثال، في ظل عقوبات قد تصل إلى 35 مليون يورو أو 7% من الإيرادات العالمية للشركات المخالفة، في حين تبدأ الغرامات من 7.5 مليون يورو أو 1.5% من الإيرادات السنوية.

وينص القانون، الذي تم إقراره رسميًا العام الماضي، على بدء تطبيقه في 2 أغسطس 2025 على النماذج المصنّفة على أنها عالية الخطورة، والتي تشمل النماذج الأساسية المطوّرة من قبل شركات رائدة مثل Google، OpenAI، Meta، Anthropic وMistral، في حين سيكون أمام الشركات مهلة إضافية حتى 2 أغسطس 2026 للامتثال الكامل لجميع المتطلبات.

ما المقصود بـ”المخاطر النظامية”؟

تُعرّف المفوضية الأوروبية النماذج ذات المخاطر النظامية على أنها تلك التي تمتلك قدرات حوسبية متقدمة للغاية، وقد يكون لها تأثير واسع النطاق على الصحة العامة، والسلامة، والحقوق الأساسية، أو النظام الاجتماعي بشكل عام.

وبموجب الإرشادات، ستُطلب من هذه النماذج الالتزام بعدد من الإجراءات التنظيمية، تشمل:

  • تقييم شامل للنموذج.
  • تحليل وتخفيف المخاطر المحتملة.
  • إجراء اختبارات مقاومة لضمان سلامة الأداء.
  • الإبلاغ عن الحوادث أو الانتهاكات الخطيرة إلى المفوضية.
  • توفير تدابير أمنية صارمة ضد السرقة أو سوء الاستخدام.

معايير الشفافية للنماذج العامة

بالنسبة إلى نماذج الذكاء الاصطناعي العامة أو الأساسية، مثل تلك التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT، فإن القانون يُلزمها بتطبيق معايير شفافية صارمة. وتشمل هذه المتطلبات:

  • إعداد وثائق تقنية مفصّلة.
  • الالتزام بسياسات واضحة لحقوق الملكية الفكرية.
  • تقديم ملخصات دقيقة للمحتوى المستخدم في تدريب الخوارزميات.

دعم للتنفيذ السلس

من جانبها، أكدت هينا فيركونن، المسؤولة عن ملف التكنولوجيا في الاتحاد الأوروبي، أن هذه الإرشادات تهدف إلى “ضمان تطبيق فعّال وسلس لقانون الذكاء الاصطناعي، مع تحقيق التوازن بين الابتكار والحماية المجتمعية”.

ويُعد هذا التحرك الأوروبي من بين أبرز المبادرات التشريعية العالمية لتنظيم تقنيات الذكاء الاصطناعي، وسط تصاعد النقاشات الدولية حول أهمية تنظيم هذا القطاع المتسارع بما يضمن سلامة الأفراد وحماية القيم الديمقراطية.

Related Posts

خبراء يحذرون من تراجع التفكير النقدي مع الاعتماد المتزايد على الذكاء الاصطناعي

AI بالعربي – متابعات حذر خبراء وباحثون من أن الاعتماد المتزايد على أدوات الذكاء الاصطناعي قد يؤدي إلى تراجع نشاط الدماغ، ويؤثر سلبًا في مهارات التفكير النقدي وحل المشكلات لدى…

“أسوشيتد برس” تطلق منصة تحقق موحدة لمواجهة التضليل الرقمي

AI بالعربي – متابعات أعلنت وكالة أسوشيتد برس الأميركية إطلاق منصة جديدة مدعومة بالذكاء الاصطناعي، تهدف إلى دعم الصحفيين في التحقق من المحتوى الرقمي داخل بيئة واحدة متكاملة. المنصة الجديدة…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 124 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 167 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 254 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 255 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 280 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 418 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر