شركات التكنولوجيا الكبرى مطالبة بمحاربة تحيزات الذكاء الاصطناعي

29

جيليان تيت

في 2010 شرعت فيرجينيا يوبانكس، أستاذة العلوم السياسة الأميركية، في التحقيق فيما إذا كانت برامج الكمبيوتر المجهزة بالذكاء الاصطناعي تضر بالمجتمعات الفقيرة في أماكن مثل بيتسبيرج ولوس أنجلوس.

كتابها الناتج عن ذلك، الصادر في 2018، يجعلك تصاب بالقشعريرة عند قراءته: وجدت يوبانكس أن الأنظمة العامة والخاصة التي تدعم الذكاء الاصطناعي والمرتبطة بالصحة والمنافع وضبط الأمن كانت تتخذ قرارات متقلبة – ومدمرة – بناء على بيانات معيبة وتحيزات عرقية وجنسانية.

والأسوأ من ذلك، كانت أنظمة الذكاء الاصطناعي غير قابلة للاختراق إلى درجة تجعل من الصعب مراقبتها أو تحديها عندما تكون القرارات خاطئة – ولا سيما من قبل الأشخاص الذين كانوا ضحايا هذه “الاستراتيجيات الأخلاقية والعقابية لإدارة الفقر”، على حد تعبير يوبانكس.

لم تحظ تحذيرات يوبانكس باهتمام عام كبير عندما ظهرت. لكن الآن، بعد وقت متأخر، تثير قضية التحيز في الذكاء الاصطناعي جدلا غاضبا في وادي السيليكون – ليس بسبب ما يحدث للذين يعيشون في الفقر ولكن بعد خلاف مرير بين العاملين في مجال التكنولوجيا من ذوي الأجور الجيدة في جوجل.

في وقت سابق من هذا الشهر، فصلت مارجريت ميتشل، موظفة في جوجل شاركت في قيادة فريق يدرس الأخلاقيات في الذكاء الاصطناعي، بعد مزاعم بأنها تورطت في “سرقة مستندات سرية حساسة للأعمال وبيانات خاصة لموظفين آخرين”، وفقا لجوجل. لم تشرح مجموعة التكنولوجيا ما يعنيه هذا. لكن يبدو أن ميتشل كانت تبحث عن دليل على أن جوجل أساءت معاملة تيمنيت جيبرو، القائدة المشاركة لها في وحدة أخلاقيات الذكاء الاصطناعي، التي فصلت في أواخر العام الماضي.

هذا أمر محرج للغاية لعملاق التكنولوجيا. جيبرو هي امرأة نادرة – خبيرة تكنولوجيا سوداء عليا – كانت تقوم بحملات ضد التحيز العنصري والجنساني عبر مجموعة الصناعة “سود في الذكاء الاصطناعي” Black in AI. الأمر الأكثر إحراجا هو أن رحيلها جاء بعد أن حاولت نشر بحث حول مخاطر الابتكار غير المقيد في الذكاء الاصطناعي الذي يبدو أنه أزعج المديرين التنفيذيين في جوجل.

لكن الذي حدث هو أن هذا البحث الذي أزعج جوجل، غريب ومتخصص بحيث لا يمكنه أن يتصدر العناوين الرئيسة. غير أنه يجادل، من بين أمور أخرى، بأن منصات معالجة اللغة الطبيعية التي تعتمد على مجموعات ضخمة من النصوص، يمكن أن تتضمن تحيزات من النوع الذي حذرت يوبانكس منه. وبعد فصل جيبرو، أخبرت ميتشل زملاءها في جوجل أن جيبرو استهدفت بسبب “الأسس العنصرية والتمييز الجنسي نفس التي تمتصها أنظمة الذكاء الاصطناعي لدينا، عندما تكون في الأيدي الخطأ”.

تخبرني ميتشل: “حاولت استخدام منصبي لإثارة مخاوف جوجل بشأن عدم المساواة بين الجنسين والعرق (…) أما أن يفصلوني من العمل، فهذا أمر مدمر”. تردد جيبرو أصداء هذا بالقول: “إذا نظرت إلى من يحظى بالشهرة ويتقاضى راتبه لاتخاذ القرارات (حول تصميم الذكاء الاصطناعي وأخلاقياته) فهو ليس النساء السود (…) كان هناك عدد من الأشخاص (في جوجل) لم يتحملوا وجودي”.

تنفي جوجل ذلك وتقول إن جيبرو غادرت لأنها انتهكت بروتوكولات البحث الداخلية. تشير الشركة إلى أنها عينت الآن ماريان كرواك، موظفة سوداء أخرى، لإدارة وحدة أخلاقيات الذكاء الاصطناعي التي تم تجديدها. كما اعتذر الرئيس التنفيذي سوندار بيتشاي للموظفين.

لكن الصورة تبدو “مثيرة للتحديات”، بحسب لغة الشركات، لأسباب ليس أقلها أنه وفقا لتقرير التنوع الأخير من جوجل، فإن أقل من ثلث موظفيها العالميين هم من النساء (انخفاض طفيف عن 2019) و5.5 في المائة فقط من موظفيها الأمريكيين هم من السود (مقارنة بـ13 في المائة من سكان الولايات المتحدة).

لا شك في أن هذه القصة ستستمر وتنتشر، لكن هناك ثلاثة أشياء على الأقل يجب على الجميع، حتى من غير العاملين في التكنولوجيا، أن يلاحظوها الآن. أولا، مشكلات وادي السيليكون مع الاختلال الجنساني والعرقي لم تبدأ وتنتهي مع الأعضاء الأكثر عرضة للفضائح في أخوية شركات التكنولوجيا الكبرى – المشكلة مستوطنة ومن المرجح أن تستمر لأعوام.

ثانيا، مقدار الضغط الواقع على عمالقة التكنولوجيا للإصلاح لا يأتي كثيرا من الأجهزة المنظمة أو المساهمين ولكن من الموظفين أنفسهم. لقد أصبحوا جماعات ضاغطة، ليس فقط بسبب الجنس والعرق ولكن أيضا بسبب البيئة وحقوق العمل. حتى قبل هذه الدراما الأخيرة، واجهت جوجل احتجاجات الموظفين بسبب التحرش الجنسي. تواجه أمازون معارضة مماثلة بشأن قضايا البيئة.

ثالثا، مشكلة الذكاء الاصطناعي والتحيز التي أبرزتها يوبانكس في كتابها تصبح الآن أكثر حدة. لا تتسابق شركات مثل جوجل فقط لإنشاء منصات ذكاء اصطناعي أكبر من أي وقت مضى، ولكنها تعمل على دمجها بشكل أعمق في حياتنا. الأدوات التي ينتقدها ويهاجمها بحث جيبرو هي مكون رئيس في عمليات بحث جوجل.

غالبا ما توفر هذه الأنظمة كفاءة وراحة غير عادية. لكن برامج الذكاء الاصطناعي تعمل عن طريق مسح كميات هائلة بشكل لا يمكن تصوره من البيانات حول النشاط البشري والكلام للعثور على الأنماط والارتباطات، باستخدام الماضي لاستقراء المستقبل. هذا ينجح بشكل جيد إذا كان التاريخ دليلا جيدا لكيفية ظهور الأشياء، ولكن ليس إذا أردنا بناء مستقبل أفضل من خلال محو عناصر من ماضينا – مثل الكلام العنصري.

الحل هو الحصول على حكم بشري أكثر وأفضل في هذه البرامج. يمكن أن يؤدي إشراك الوجوه غير البيضاء في تصميم أدوات التعرف على الوجه، مثلا، إلى تقليل التحيز المؤيد للبيض. لكن المشكلة تكمن في أن التدخل البشري يبطئ عمليات الذكاء الاصطناعي – والابتكار. السؤال الذي تطرحه ملحمة جيبرو ليس بسيطا: “هل التكنولوجيا عنصرية أم متحيزة جنسيا؟” ولكن أيضا: “هل سنضحي ببعض الوقت والمال للحصول على نظام ذكاء اصطناعي أكثر عدلا؟”.

دعونا نرجو أن تركز دراما جوجل أخيرا الاهتمام بذلك.

اترك رد

Your email address will not be published.