الشركات الكبرى تفرض على الاتحاد الأوروبي “أخلاقيات الذكاء الاصطناعي”

الشركات الكبرى تفرض على الاتحاد الأوروبي "أخلاقيات الذكاء الاصطناعي"

AI بالعربي – متابعات

ذكر موقع “إي يو أوبزيرفر” (EU Observer) في مقالة نشرها مؤخراً أن المفوضية الأوروبية شكلت “مجموعة خبراء رفيعة المستوى” (HLEG) لتقديم المشورة للاتحاد الأوروبي فيما يخص سياسة الاستثمار وأخلاقيات الذكاء الاصطناعي. ولكن رغم صياغة المبادئ الأخلاقية للاتحاد الأوروبي، كان عدد علماء الأخلاق قليل في المجموعة التي تضم 56 عضواً، حيث مثّل 26 من الخبراء مصالح الشركات، إلى جانب 21 عضواً أكاديمياً و3 وكالات عامة و6 منظمات مجتمع مدني.

ويرى البعض أن أغلب الخبراء يمثلون مصالح شركات التكنولوجيا الكبرى (أمازون وغوغل وآبل وفيسبوك)، ما يخلق تضارباً في المصالح عندما يتعلق الأمر بمصدر تمويل الجهات المشاركة، حيث حصلت غوغل على مقعد في المجموعة إلى جانب شركات أوروبية مثل (Airbus) و(BMW) و(Orange) و(Zalando). واعتبر تيبو ويبر، ممثل اتحادات النقابات الأوروبية، أن ست منظمات تمثل المجتمع المدني عدد قليل للغاية، على حين أرجع البعض قلة علماء الأخلاق إلى كثرة الأمور التي يركز عليها العمل.

وأظهرت التقارير أن تسعة من الخبراء على الأقل يتبعون لمؤسسات تمولها شركات التكنولوجيا الكبرى بملايين الدولارات، بما في ذلك مؤسسات أكاديمية مثل جامعة ميونيخ التقنية والمعهد الفرنسي للبحوث في علوم الحاسب الآلي والأتمتة (INRIA) والجامعة التقنية في فيينا وجمعية فراونهوفر الألمانية للبحوث التطبيقية وجامعة دلفت للتكنولوجيا والمركز الألماني لبحوث الذكاء الاصطناعي (DFKI).

كما أن البروفيسور لوسيانو فلوريدي، أحد مستشاري الاتحاد الأوروبي من جامعة أوكسفورد، من بين الخبراء الذين تربطهم علاقات قوية بشركات التكنولوجيا الكبرى ويسميه البعض «فيلسوف غوغل»، حيث يتلقى مختبر الأخلاق الرقمية في جامعة أوكسفورد تمويلها من مايكروسوفت وغوغل. وأفاد الأكاديمي الكندي لوك ستارك الذي رفض تمويل غوغل بأن حقيقة استحالة الابتعاد عن تمويل الصناعة في أبحاث الذكاء الاصطناعي تعد مشكلة كبيرة.

وتشير التقارير إلى احتدام النقاش بين الخبراء في إحدى الجلسات عند التطرق لتطبيقات الذكاء الاصطناعي التي يحظرها الاتحاد الأوروبي، ما دفع المجموعة إلى الانتقال إلى «الفرص والمخاوف التي تحيط بالذكاء الاصطناعي» لتوصي بسبع «متطلبات رئيسية» منها السلامة والشفافية وعدم التمييز، علماً أنه جرى استخدام خمسة فقط في قانون الذكاء الاصطناعي المقترح في أبريل 2021.

ويذكر أن المفوضية استثنت «الصحة البيئية والاجتماعية» لصعوبة وضع قانون يحيط بها. وذكر فلوريدي أنه تواصل مع «بعض الشركات الكبرى» التي تتطلع إلى «جني الكثير من المال» من خلال «مراقبة الذكاء الاصطناعي»، ولكن حتى الآن لم يصدر أي تعليق من غوغل أو مايكروسوفت أو غيرها من الشركات الكبرى.

Related Posts

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية AI بالعربي – متابعات دخل سباق الذكاء الاصطناعي بين الولايات المتحدة والصين مرحلة أكثر سخونة، بعد أن أصدر مركز معايير الذكاء…

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار AI بالعربي – متابعات سجّل قطاع الذكاء الاصطناعي طفرة غير مسبوقة في جذب استثمارات رأس المال الجريء،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 132 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 133 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 74 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 81 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 41 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق

  • سبتمبر 15, 2025
  • 48 views
الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق