منتقدو الذكاء الاصطناعي في “ألفابت” يطرحون الأسئلة الخطأ
منتقدو الذكاء الاصطناعي في “ألفابت” يطرحون الأسئلة الخطأ
بارمي أولسون
شكّل عدد قليل من مساهمي شركة “ألفابت” تحالفًا غير متوقع مؤخرًا، حين طالبوا الشركة بإيلاء اهتمام أكبر للمخاطر المرتبطة بالذكاء الاصطناعي.
أعرب المركز الوطني للسياسات القانونية “NLPC” عن قلقه من تأثير الذكاء الاصطناعي على حقوق الخصوصية، بينما اشتكت شركة “إنسباير إنفستينغ” “Inspire Investing” -وهي مساهم يدعم “الاستثمار المسؤول المتوافق مع المبادئ الدينية المسيحية المحافظة ويعارض أحيانًا ما يُعرف بالسياسات المؤيدة لليقظة الاجتماعية”- من احتمال أن يؤدي الذكاء الاصطناعي إلى فرض رقابة على الخطاب الديني والسياسي. أما “جمعية المساهمين للبحث والتعليم” “SHARE”، فحذّرت من أن الذكاء الاصطناعي لدى “جوجل” قد يؤدي بشكل غير مقصود إلى تقويض حقوق الإنسان وتعزيز التمييز.
لطالما كان القلق من أضرار التكنولوجيا نقطة اتفاق بين مختلف الأطياف السياسية، إذ جمعت بين مشرعين جمهوريين وديمقراطيين لتوجيه الانتقادات إلى شركات التواصل الاجتماعي بسبب دورها في تأجيج أزمة الصحة النفسية. لكن، وبالطريقة ذاتها التي اتسمت بها تلك الجهود بالطابع الاستعراضي السياسي، يبدو أن الانتقادات الأخيرة للذكاء الاصطناعي تسير على النهج نفسه.
تصويت المساهمين في “ألفابت”
لا يُعد تصويت المساهمين الأوسع نطاقًا في “ألفابت” ضد تلك المقترحات بناءً على توصية الشركة أمرًا ذا أهمية كبيرة، نظرًا لأن تلك المقترحات ما كانت لتُحدث فرقًا يُذكر في الحد من مخاطر الذكاء الاصطناعي. والسبب في ذلك أن الجهات الثلاث طالبت “ألفابت” بتقييم أدائها ذاتيًا.
دعا “المركز الوطني للسياسات القانونية” الشركة إلى إعداد تقرير يوضح ما إذا كانت تستخدم بيانات الأفراد لتدريب أنظمتها المعتمدة على الذكاء الاصطناعي. بينما طالبت “إنسباير” بتقييم تحيّز الذكاء الاصطناعي ضد المعتقدات الدينية والسياسية، فيما رغبت “جمعية المساهمين للبحث والتعليم” في أن تُعد الشركة دراسة عن تأثير تقنيات الإعلانات المعتمدة على الذكاء الاصطناعي في حقوق الإنسان، وذلك بحسب بيان الشركة في تقرير المساهمين للعام 2025.
أما “ألفابت” فأكدت أنه لا حاجة لأي من ذلك، كونها تجري بالفعل أبحاثًا كافية لتقييم المخاطر. وقالت في بيان: “نحن ننشر تقارير دورية حول مسؤولية الذكاء الاصطناعي، والتي تتضمن رؤى تفصيلية حول السياسات والممارسات والعمليات التي نتبعها في تطوير أنظمة الذكاء الاصطناعي المتقدمة”.
من المؤكد أن تسليط الضوء على ما إذا كانت “جوجل” تسيء استخدام البيانات الشخصية يُعد أمرًا إيجابيًا، إلى جانب المقترحات الأخرى، لكن جميع هذه المطالب تفتقر إلى الجوهر لأنها تدعو الشركة نفسها إلى إعداد هذه التقارير، لا جهات تنظيمية مستقلة أو باحثين خارجيين. وهو ما يجعل هذه المقترحات تبدو أشبه بنشاط استعراضي أكثر من كونها جهودًا لإحداث تغيير حقيقي، لا سيما وأن بعض المجموعات مثل “المركز الوطني للسياسات القانونية” تقدّمت بمقترحات مشابهة في عدة شركات تكنولوجيا أخرى خلال هذا الموسم للتصويت.
الشفافية في شركات التكنولوجيا
أتقنت شركات وادي السيليكون منذ زمن بعيد ما يمكن تسميته “غسل الشفافية”، وذلك من خلال إصدار تقارير براقة –مثل التقرير الصادر عن شركة “ميتا بلاتفورمز” حول خطاب الكراهية على “فيسبوك”، أو تقارير “أوبر تكنولوجيز” حول إحصاءات السلامة– لكنها غير خاضعة لمراجعة طرف ثالث. ونظرًا لغياب القوانين التي تفرض الإفصاح، تحتفظ هذه الشركات بقراراتها المتعلقة بإدارة المحتوى وتصميم الخوارزميات، والآن أيضًا تصميم نماذج الذكاء الاصطناعي، في دائرة الغموض، وتشير إلى تقاريرها التفصيلية كلما واجهت ضغوطًا من المشرعين أو منظمات المجتمع المدني.
وعندما سُئل الرئيس التنفيذي لشركة “OpenAI”، سام ألتمان، عن مخاطر الذكاء الاصطناعي خلال شهادته أمام مجلس الشيوخ في مايو 2023، تحدث بدوره عن الأبحاث التي تُجريها الشركة، وكذلك عن “المراجعات المستقلة من قبل خبراء مستقلين لأداء النماذج في مختلف المؤشرات”. غير أن أحد المكونات الأساسية لنماذج الذكاء الاصطناعي هو بيانات التدريب، وهي العنصر الذي تحتفظ “OpenAI” بسريته منذ سنوات. ولو أُتيحت هذه البيانات للمُنظمين أو الباحثين، لكان بإمكانهم فحص تقنية الشركة بشكل أفضل لاكتشاف العيوب الأمنية أو التحيّزات أو انتهاكات حقوق الملكية الفكرية. وتُرجع الشركة ذلك إلى ضرورة حماية الأسرار التجارية، لكن تجنّب المسؤولية القانونية قد يكون سببًا أكثر ترجيحًا.
تجربة “ميتا بلاتفورمز”
ولو أراد مساهمو “ألفابت” المضي في طريق التغيير الحقيقي، لكان عليهم المطالبة برقابة خارجية: مراجعة فنية مستقلة –من قبل إحدى شركات المحاسبة الأربع الكبرى مثلًا، أو من مؤسسات أكاديمية– لتقييم أنظمة الشركة قبل طرحها للاستخدام. وقد خطت “ميتا” خطوة أولية في هذا الاتجاه قبل بضع سنوات عندما استعانت بشركة “إرنست آند يونغ” “Ernst & Young” لمراجعة جزء من تقارير الشفافية الخاصة بـ”فيسبوك”، لكن يمكن التوسع في ذلك بشكل أكبر بكثير.
صحيح أن مساهمي “ألفابت” النشطاء هم مجموعات صغيرة نسبيًا، وربما لا يمتلكون النفوذ الكافي للتأثير في نتائج اجتماع الجمعية العمومية، لكن أصواتهم –لا سيما صوت “المركز الوطني للسياسات القانونية” نظرًا لميوله المحافظة– قد تكتسب وزنًا أكبر إذا دفعوا بهذه الأفكار التنظيمية من خلال قنوات سياسية أخرى. فعلى سبيل المثال، يمكنهم الضغط على المشرّعين لإنشاء هيئة تنظيمية مشابهة لإدارة الغذاء والدواء، لكن مخصصة للذكاء الاصطناعي، تُلزم الشركات بتحقيق معايير معينة قبل طرح تقنياتها للعامة. وحتى يتحقق ذلك، ستظل حالة التوافق بين الحزبين الديمقراطي والجمهوري الواسعة غارقة في نظام يُفضل دوْمًا الإبقاء على الوضع القائم.
المصدر: بلومبرغ