ألمانيا توقف خطة ميتا لتدريب الذكاء الاصطناعي على بيانات المستخدمين

ألمانيا توقف خطة ميتا لتدريب الذكاء الاصطناعي على بيانات المستخدمين

AI بالعربي – متابعات

طالبت هيئة حماية البيانات الإقليمية في ولاية شمال الراين وستفاليا NRW، الجهة الرقابية الألمانية المختصة بحماية الخصوصية، شركة ميتا بشكل رسمي بوقف خططها المتعلقة باستخدام بيانات عملائها الأوروبيين في تدريب نماذجها من الذكاء الاصطناعي.

وكانت الشركة الأميركية قد أعلنت في أبريل الماضي عن نيتها البدء في تدريب نماذجها للذكاء الاصطناعي باستخدام محتوى عام من مستخدمي فيسبوك، إنستجرام، واتساب وماسنجر، بما يشمل المنشورات والتعليقات والرسائل المتاحة للعامة.

وذكرت الشركة في بيان لها أن هذا البرنامج يهدف إلى تعزيز قدرات الذكاء الاصطناعي لفهم ثقافات ولغات وتاريخ المجتمعات الأوروبية، وذلك في أعقاب إطلاقها الناجح للذكاء الاصطناعي في أوروبا.

لكن الإعلان قوبل بردود فعل رافضة من قبل عدة سلطات لحماية البيانات في أوروبا، من بينها بلجيكا وفرنسا وهولندا، والتي أعربت عن قلقها بشأن انتهاكٍ محتملٍ لحقوق الخصوصية، ودعت المستخدمين إلى اتخاذ الإجراءات اللازمة قبل سريان سياسة الخصوصية الجديدة في 27 مايو.

وأشارت الهيئة في شمال الراين وستفاليا إلى استعدادها لاتخاذ إجراءات قانونية ضد ميتا في حال عدم امتثالها لطلب وقف خططها التدريبية، حيث وجهت لها خطاب “وقف وكف” رسمي في 30 أبريل الماضي، وإذا لم تستجب ميتا طواعية، فستخضع لملاحقة قانونية.

وفي هذا السياق، أكدت كريستين ستيفن، خبيرة حماية البيانات في الهيئة، على ضرورة التحرك السريع، قائلة: “بمجرد استخدام البيانات في تدريب الذكاء الاصطناعي، يصبح من شبه المستحيل حذفها لاحقًا”.

وأوضحت ستيفن أن النهج الذي تتبعه ميتا لا يتماشى مع المتطلبات القانونية للاتحاد الأوروبي، مضيفة أن ادعاء الشركة بوجود “مصلحة مشروعة” لاستخدام البيانات على نطاق واسع لا يبرر ذلك قانونيًا.

وأكدت أن المستخدمين يجب أن يُمنحوا الحق في اتخاذ القرار، مشددة على أن خيار “الانسحاب” الذي توفره ميتا لا يُعد كافيًا، بل يتطلب الأمر موافقةً صريحةً ومسبقةً من أصحاب البيانات.

من جانبه، أعرب ماكس شريمز، رئيس منظمة “noyb” النمساوية لحماية الخصوصية، عن دعمه الكامل لموقف ولاية شمال الراين وستفاليا، مشيرًا إلى أن منظمته قدمت بالفعل سلسلةً من الشكاوى ضد ميتا في عام 2024. وانتقد شريمز إصرار الشركة على المضي قدمًا في خططها متجاهلةً الحقوق الأساسية للمستخدمين.

وقال شريمز في بيان صحفي: “إن ميتا تتعمد تجاهل تشريعات الاتحاد الأوروبي، وتُقدّم مصالحها التجارية على حساب الحق الأساسي في حماية البيانات.

يمكنها ببساطة أن تطلب موافقة المستخدمين، وإذا استمرت في هذا النهج، فستكون هناك عواقب تطال أوروبا بأسرها”.

Related Posts

“السعودية” تقود مبادرة عالمية لبناء القدرات في الذكاء الاصطناعي

AI بالعربي – متابعات دعت المملكة العربية السعودية، وجمهورية كينيا، دول العالم إلى المساهمة في الشبكة العالمية لمراكز بناء قدرات الذكاء الاصطناعي المعلنة، إحدى توصيات الميثاق الرقمي العالمي بدعم منظمة…

باحثو جامعة ساري يستلهمون الدماغ البشري لخفض استهلاك الطاقة في الذكاء الاصطناعي

AI بالعربي – متابعات آلية مستوحاة من الدماغ لحل أزمة الطاقةنجح فريق من الباحثين في جامعة ساري البريطانية في تطوير تقنية جديدة قد تغيّر طريقة عمل نماذج الذكاء الاصطناعي جذريًا.…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 78 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 228 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 320 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 328 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 279 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 315 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟