الشركات الكبرى تفرض على الاتحاد الأوروبي “أخلاقيات الذكاء الاصطناعي”

الشركات الكبرى تفرض على الاتحاد الأوروبي "أخلاقيات الذكاء الاصطناعي"

AI بالعربي – متابعات

ذكر موقع “إي يو أوبزيرفر” (EU Observer) في مقالة نشرها مؤخراً أن المفوضية الأوروبية شكلت “مجموعة خبراء رفيعة المستوى” (HLEG) لتقديم المشورة للاتحاد الأوروبي فيما يخص سياسة الاستثمار وأخلاقيات الذكاء الاصطناعي. ولكن رغم صياغة المبادئ الأخلاقية للاتحاد الأوروبي، كان عدد علماء الأخلاق قليل في المجموعة التي تضم 56 عضواً، حيث مثّل 26 من الخبراء مصالح الشركات، إلى جانب 21 عضواً أكاديمياً و3 وكالات عامة و6 منظمات مجتمع مدني.

ويرى البعض أن أغلب الخبراء يمثلون مصالح شركات التكنولوجيا الكبرى (أمازون وغوغل وآبل وفيسبوك)، ما يخلق تضارباً في المصالح عندما يتعلق الأمر بمصدر تمويل الجهات المشاركة، حيث حصلت غوغل على مقعد في المجموعة إلى جانب شركات أوروبية مثل (Airbus) و(BMW) و(Orange) و(Zalando). واعتبر تيبو ويبر، ممثل اتحادات النقابات الأوروبية، أن ست منظمات تمثل المجتمع المدني عدد قليل للغاية، على حين أرجع البعض قلة علماء الأخلاق إلى كثرة الأمور التي يركز عليها العمل.

وأظهرت التقارير أن تسعة من الخبراء على الأقل يتبعون لمؤسسات تمولها شركات التكنولوجيا الكبرى بملايين الدولارات، بما في ذلك مؤسسات أكاديمية مثل جامعة ميونيخ التقنية والمعهد الفرنسي للبحوث في علوم الحاسب الآلي والأتمتة (INRIA) والجامعة التقنية في فيينا وجمعية فراونهوفر الألمانية للبحوث التطبيقية وجامعة دلفت للتكنولوجيا والمركز الألماني لبحوث الذكاء الاصطناعي (DFKI).

كما أن البروفيسور لوسيانو فلوريدي، أحد مستشاري الاتحاد الأوروبي من جامعة أوكسفورد، من بين الخبراء الذين تربطهم علاقات قوية بشركات التكنولوجيا الكبرى ويسميه البعض «فيلسوف غوغل»، حيث يتلقى مختبر الأخلاق الرقمية في جامعة أوكسفورد تمويلها من مايكروسوفت وغوغل. وأفاد الأكاديمي الكندي لوك ستارك الذي رفض تمويل غوغل بأن حقيقة استحالة الابتعاد عن تمويل الصناعة في أبحاث الذكاء الاصطناعي تعد مشكلة كبيرة.

وتشير التقارير إلى احتدام النقاش بين الخبراء في إحدى الجلسات عند التطرق لتطبيقات الذكاء الاصطناعي التي يحظرها الاتحاد الأوروبي، ما دفع المجموعة إلى الانتقال إلى «الفرص والمخاوف التي تحيط بالذكاء الاصطناعي» لتوصي بسبع «متطلبات رئيسية» منها السلامة والشفافية وعدم التمييز، علماً أنه جرى استخدام خمسة فقط في قانون الذكاء الاصطناعي المقترح في أبريل 2021.

ويذكر أن المفوضية استثنت «الصحة البيئية والاجتماعية» لصعوبة وضع قانون يحيط بها. وذكر فلوريدي أنه تواصل مع «بعض الشركات الكبرى» التي تتطلع إلى «جني الكثير من المال» من خلال «مراقبة الذكاء الاصطناعي»، ولكن حتى الآن لم يصدر أي تعليق من غوغل أو مايكروسوفت أو غيرها من الشركات الكبرى.

Related Posts

السعودية تنشئ أكبر مركز بيانات حكومي في العالم بطاقة تصل إلى 480 ميجاواط

AI بالعربي – متابعات دخلت المملكة السباق العالمي لإنشاء مراكز البيانات الضخمة، عقب إعلانها عن إطلاق مركز بيانات “هيكساجون” كأكبر مركز بيانات حكومي في العالم من المستوى الرابع Tier IV…

“ChatGPT” يتصدر أدوات الذكاء الاصطناعي الأكثر استخدامًا في 2025

AI بالعربي – متابعات تحولت أدوات الذكاء الاصطناعي خلال عام 2025 إلى عنصر أساسي في حياة المستخدمين حول العالم، بعدما تجاوز استخدامها حدود التجارب البسيطة، لتصبح ركيزة رئيسية في قطاعات…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 172 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 210 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 295 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 306 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 325 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 453 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر