الاتحاد الأوروبي يحاول تقييد الذكاء الاصطناعي

AI بالعربي – متابعات

ورد أنَّ المفاوضين في الاتحاد الأوروبي يفكرون في فرض قيود إضافية على نماذج الذكاء الاصطناعي الضخمة، مثل (GPT-4) من (OpenAI)، كجزء من قانون الذكاء الاصطناعي القادم.

حسبما ورد، يتفاوض الممثلون في الاتحاد الأوروبي على خطة للوائح إضافية بشأن أضخم أنظمة الذكاء الاصطناعي، وفقاً لتقرير صادر عن بلومبرغ.

ورد أنَّ المفوضية الأوروبية والبرلمان الأوروبي ومختلف الدول الأعضاء في الاتحاد الأوروبي تجري مناقشات بشأن الآثار المحتملة للنماذج اللغوية الضخمة (LLMs)، بما فيها (Llama 2) من (Meta) و (GPT-4) من (OpenAI)، والقيود الإضافية المحتملة التي ستُفرض عليها كجزء من قانون الذكاء الاصطناعي القادم.

كما ذكرت بلومبرغ أنَّ مصادر مقرَّبة من الأمر قالت إنَّ الهدف يتمثَّل في عدم إثقال كاهل الشركات الناشئة الجديدة بالكثير من اللوائح، مع إبقاء النماذج الأضخم تحت السيطرة.

وفقاً للمصادر، فإنَّ الاتفاقَ الذي توصَّل إليه المفاوضون حول الموضوع ما يزال في مراحله الأولية.

يكوِّن قانون الذكاء الاصطناعي واللوائح المقترحة الجديدة لمساحات العمل الكبيرة نهجاً مشابهاً لقانون الخدمات الرقمية في الاتحاد الأوروبي.

والجدير بالذكر أنَّ المشرعين في الاتحاد الأوروبي أدخلوا قانون الخدمات الرقمية حيز التنفيذ مؤخَّراً، ما يتيح للمنصات والمواقع الإلكترونية معايير لحماية بيانات المستخدم والبحث عن الأنشطة غير القانونية. ومع ذلك، تخضع أكبر منصات الويب لضوابط أكثر صرامة.

فقد كان أمام الشركات ضمن هذه الفئة، مثل “ألفابت” (Alphabet Inc.) وميتا” (Meta Inc.)، حتى 28 أغسطس لتحديث ممارسات الخدمة للامتثال لمعايير الاتحاد الأوروبي الجديدة.

من المفترض أن يكون قانون الاتحاد الأوروبي للذكاء الاصطناعي أحد أول مجموعة من القواعد الإلزامية للذكاء الاصطناعي التي وضعتها حكومة غربية. فيما قد سنَّت الصين مسبقاً مجموعة خاصة بها من لوائح الذكاء الاصطناعي، والتي دخلت حيز التنفيذ في أغسطس 2023.

بموجب لوائح الاتحاد الأوروبي الخاصة بالذكاء الاصطناعي، ستحتاج الشركات التي تطور أنظمة الذكاء الاصطناعي وتنشرها إلى إجراء تقييمات للمخاطر، وتحديد المحتوى الذي يُنشأ بواسطة الذكاء الاصطناعي، إلى جانب أنَّها محظورة تماماً من استخدام المراقبة البيومترية، من بين أمور أخرى.

ومع ذلك، لم يُسَن التشريع بعد، وما يزال لدى الدول الأعضاء القدرة على عدم الموافقة على أي من المقترحات التي طرحها البرلمان.

أمَّا في الصين، فمنذ تنفيذ قوانين الذكاء الاصطناعي، أُبلغ عن إصدار ما يزيد عن 70 نموذجاً جديداً للذكاء الاصطناعي.

Related Posts

“الاستدلال السببي المتقدم”.. هل يمكن للذكاء الاصطناعي أن يفهم لماذا؟

“الاستدلال السببي المتقدم”.. هل يمكن للذكاء الاصطناعي أن يفهم لماذا؟ AI بالعربي – خاص لطالما برع الذكاء الاصطناعي في التعرف على الأنماط والتنبؤ بما سيحدث لاحقًا، لكنه ظل عاجزًا عن…

أكمل القراءة

“التحسين العاطفي” للحوارات الذكية.. هل يمكن أن تتكلم الآلة بلُطف؟

“التحسين العاطفي” للحوارات الذكية.. هل يمكن أن تتكلم الآلة بلُطف؟ AI بالعربي – خاص مع انتشار المساعدات الافتراضية وروبوتات المحادثة، باتت الآلات طرفًا في حواراتنا اليومية، من جدولة الاجتماعات إلى…

أكمل القراءة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You Missed

“الاستدلال السببي المتقدم”.. هل يمكن للذكاء الاصطناعي أن يفهم لماذا؟

  • من admin
  • يوليو 10, 2025
  • 5 views
“الاستدلال السببي المتقدم”.. هل يمكن للذكاء الاصطناعي أن يفهم لماذا؟

“aIdoc” أداة فعالة لتحليل صور الأشعة الطبية باستخدام الذكاء الاصطناعي

  • من admin
  • يوليو 9, 2025
  • 10 views
“aIdoc” أداة فعالة لتحليل صور الأشعة الطبية باستخدام الذكاء الاصطناعي

“التحسين العاطفي” للحوارات الذكية.. هل يمكن أن تتكلم الآلة بلُطف؟

  • من admin
  • يوليو 9, 2025
  • 15 views
“التحسين العاطفي” للحوارات الذكية.. هل يمكن أن تتكلم الآلة بلُطف؟

تقرير: تغييرات بسيطة تقلل استهلاك نماذج الذكاء الاصطناعي للطاقة بنسبة 90%

  • من admin
  • يوليو 9, 2025
  • 20 views
تقرير: تغييرات بسيطة تقلل استهلاك نماذج الذكاء الاصطناعي للطاقة بنسبة 90%

قمة أممية تسلط الضوء على مخاطر الذكاء الاصطناعي وتطرح حلولًا لمستقبل أكثر أمانًا

  • من admin
  • يوليو 9, 2025
  • 15 views
قمة أممية تسلط الضوء على مخاطر الذكاء الاصطناعي وتطرح حلولًا لمستقبل أكثر أمانًا

“ChatGPT” يختبر ميزة “الدراسة معًا” لتعزيز التعلم التفاعلي

  • من admin
  • يوليو 9, 2025
  • 14 views
“ChatGPT” يختبر ميزة “الدراسة معًا” لتعزيز التعلم التفاعلي