الاتحاد الأوروبي يحاول تقييد الذكاء الاصطناعي

AI بالعربي – متابعات

ورد أنَّ المفاوضين في الاتحاد الأوروبي يفكرون في فرض قيود إضافية على نماذج الذكاء الاصطناعي الضخمة، مثل (GPT-4) من (OpenAI)، كجزء من قانون الذكاء الاصطناعي القادم.

حسبما ورد، يتفاوض الممثلون في الاتحاد الأوروبي على خطة للوائح إضافية بشأن أضخم أنظمة الذكاء الاصطناعي، وفقاً لتقرير صادر عن بلومبرغ.

ورد أنَّ المفوضية الأوروبية والبرلمان الأوروبي ومختلف الدول الأعضاء في الاتحاد الأوروبي تجري مناقشات بشأن الآثار المحتملة للنماذج اللغوية الضخمة (LLMs)، بما فيها (Llama 2) من (Meta) و (GPT-4) من (OpenAI)، والقيود الإضافية المحتملة التي ستُفرض عليها كجزء من قانون الذكاء الاصطناعي القادم.

كما ذكرت بلومبرغ أنَّ مصادر مقرَّبة من الأمر قالت إنَّ الهدف يتمثَّل في عدم إثقال كاهل الشركات الناشئة الجديدة بالكثير من اللوائح، مع إبقاء النماذج الأضخم تحت السيطرة.

وفقاً للمصادر، فإنَّ الاتفاقَ الذي توصَّل إليه المفاوضون حول الموضوع ما يزال في مراحله الأولية.

يكوِّن قانون الذكاء الاصطناعي واللوائح المقترحة الجديدة لمساحات العمل الكبيرة نهجاً مشابهاً لقانون الخدمات الرقمية في الاتحاد الأوروبي.

والجدير بالذكر أنَّ المشرعين في الاتحاد الأوروبي أدخلوا قانون الخدمات الرقمية حيز التنفيذ مؤخَّراً، ما يتيح للمنصات والمواقع الإلكترونية معايير لحماية بيانات المستخدم والبحث عن الأنشطة غير القانونية. ومع ذلك، تخضع أكبر منصات الويب لضوابط أكثر صرامة.

فقد كان أمام الشركات ضمن هذه الفئة، مثل “ألفابت” (Alphabet Inc.) وميتا” (Meta Inc.)، حتى 28 أغسطس لتحديث ممارسات الخدمة للامتثال لمعايير الاتحاد الأوروبي الجديدة.

من المفترض أن يكون قانون الاتحاد الأوروبي للذكاء الاصطناعي أحد أول مجموعة من القواعد الإلزامية للذكاء الاصطناعي التي وضعتها حكومة غربية. فيما قد سنَّت الصين مسبقاً مجموعة خاصة بها من لوائح الذكاء الاصطناعي، والتي دخلت حيز التنفيذ في أغسطس 2023.

بموجب لوائح الاتحاد الأوروبي الخاصة بالذكاء الاصطناعي، ستحتاج الشركات التي تطور أنظمة الذكاء الاصطناعي وتنشرها إلى إجراء تقييمات للمخاطر، وتحديد المحتوى الذي يُنشأ بواسطة الذكاء الاصطناعي، إلى جانب أنَّها محظورة تماماً من استخدام المراقبة البيومترية، من بين أمور أخرى.

ومع ذلك، لم يُسَن التشريع بعد، وما يزال لدى الدول الأعضاء القدرة على عدم الموافقة على أي من المقترحات التي طرحها البرلمان.

أمَّا في الصين، فمنذ تنفيذ قوانين الذكاء الاصطناعي، أُبلغ عن إصدار ما يزيد عن 70 نموذجاً جديداً للذكاء الاصطناعي.

Related Posts

“الاستقرار الحسابي تحت الضغط”.. كيف تصمد النماذج في البيئات المتطرفة؟

22 / 100 بدعم من Rank Math SEO نتيجة تحسين محركات البحث “الاستقرار الحسابي تحت الضغط”.. كيف تصمد النماذج في البيئات المتطرفة؟ AI بالعربي – خاص مع توسع استخدام الذكاء…

أكمل القراءة

“مفاتيح القرارات غير المرئية”.. كيف تفكر النماذج التوليدية خلف الكواليس؟

23 / 100 بدعم من Rank Math SEO نتيجة تحسين محركات البحث “مفاتيح القرارات غير المرئية”.. كيف تفكر النماذج التوليدية خلف الكواليس؟ AI بالعربي – خاص مع انتشار النماذج التوليدية…

أكمل القراءة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You Missed

“Lawgeex” أداة متطورة لمراجعة وتعديل الوثائق القانونية باستخدام الذكاء الاصطناعي

  • من admin
  • يوليو 10, 2025
  • 5 views
“Lawgeex” أداة متطورة لمراجعة وتعديل الوثائق القانونية باستخدام الذكاء الاصطناعي

“سدايا” تمنح شركة “سدم” وسم “ملتزم” وشهادة اعتماد مقدم خدمات ذكاء اصطناعي تقديرًا لالتزامها الأخلاقي والتقني

  • من admin
  • يوليو 10, 2025
  • 6 views
“سدايا” تمنح شركة “سدم” وسم “ملتزم” وشهادة اعتماد مقدم خدمات ذكاء اصطناعي تقديرًا لالتزامها الأخلاقي والتقني

ابتداءً من العام الدراسي المقبل: الذكاء الاصطناعي يدخل مناهج التعليم العام في السعودية

  • من admin
  • يوليو 10, 2025
  • 15 views
ابتداءً من العام الدراسي المقبل: الذكاء الاصطناعي يدخل مناهج التعليم العام في السعودية

“الاستقرار الحسابي تحت الضغط”.. كيف تصمد النماذج في البيئات المتطرفة؟

  • من admin
  • يوليو 10, 2025
  • 12 views
“الاستقرار الحسابي تحت الضغط”.. كيف تصمد النماذج في البيئات المتطرفة؟

“تصميم الإشارات العاطفية” في الواجهات الذكية.. كيف تبني الثقة مع المستخدم؟

  • من admin
  • يوليو 10, 2025
  • 12 views
“تصميم الإشارات العاطفية” في الواجهات الذكية.. كيف تبني الثقة مع المستخدم؟

الذكاء الاصطناعي لا يُغني عن البشر: متى تكون الكفاءة التقنية غير كافية؟

  • من admin
  • يوليو 10, 2025
  • 10 views
الذكاء الاصطناعي لا يُغني عن البشر: متى تكون الكفاءة التقنية غير كافية؟