الممارسات العادلة والتغلب على عقبات التحيّز في تحليلات البيانات الضخمة القائمة على الذكاء الاصطناعي

10

AI بالعربي – متابعات

تسعى الحكومات وشركات التكنولوجيا والأكاديميات في جميع أنحاء العالم إلى الوصول إلى توافق في الآراء حول كل ما يخصّ الذكاء الاصطناعي. كما تحاول أيضاً فهم أفضل السبل التي يمكننا من خلالها الحصول على فوائد الذكاء الاصطناعي مع ضمان حوكمة هذه التقنية وتنظيمها وأنها تُستخدم بشكل عادل دون أن تتسبب بأي ضرر.

أحد الشواغل الشائعة في أنظمة الذكاء الاصطناعي هو تحيز الذكاء الاصطناعي عندما تأتي خوارزمية الذكاء الاصطناعي بنتائج أو تنبؤات غير عادلة أو متحيزة أو تمييزية بسبب افتراضات خاطئة في نظام الآلة الأساسي. وقبل أن نتمكن من التغلب على هذه المشكلة، علينا أولاً أن نفهم مصدر تلك التحيزات.

التحيز في البيانات والذكاء الاصطناعي
ينشأ التحيز في البيانات وخوارزميات الذكاء الاصطناعي في الغالب عندما تكون البيانات الأساسية المستخدمة لتدريب نموذج الذكاء الاصطناعي متحيزة. وأحد أشكال تحيز الذكاء الاصطناعي هو عندما تكون البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي متحيزة بطبيعتها بسبب كيفية جمعها. وإذا كانت البيانات المختارة للتدريب غير دقيقة أو غير كاملة أو غير متوافقة بطريقة ما بحيث لا تمثل السكان الذين تهدف إلى خدمتهم، فيمكن لنموذج الذكاء الاصطناعي أن يطوّر تحيزاً بناءً على ذلك. وخير مثال على هذه الحالة هو عندما يتم تدريب أنظمة التعرف على الوجه على مجموعة بيانات تخص عرقاً أو جنساً واحداً بشكل أساسي، فسيكون النظام أفضل في التعرف على الوجوه التابعة للمجموعة التي يتحيز لها الذكاء الاصطناعي، وقد يكون أداؤه ضعيفاً بالنسبة للأفراد الذين ينتمون إلى المجموعات العرقية أو الجنسية الأخرى.

وكثيراً ما تظهر التحيزات المجتمعية والتاريخية، فضلاً عن عدم المساواة في البيانات، وقد تتجلى تلك التحيزات في بيانات التوظيف أو سجلات الإقراض أو بيانات العدالة الجنائية، مما يؤدي إلى نماذج الذكاء الاصطناعي التي تعمل على إدامة الفوارق القائمة. ويمكن للخوارزميات نفسها في الواقع التوقف عن التحيز عندما تقوم بتنبؤات بناءً على أنماط في بيانات التدريب، لكنها تعمل عن غير قصد على تضخيم التحيزات الحالية. على سبيل المثال، قد يقوم نظام الذكاء الاصطناعي المدرب على تصفية طلبات العمل بناءً على قرارات التوظيف الماضية باختيار المرشحين الذين يمتلكون خصائص معينة فقط واستبعاد الآخرين.

وهناك أمثلة أخرى على التحيز الذي يمكن أن يحصل في بيئات التعلم الخاضع للإشراف، عندما يقوم المشغلون البشريون بتسمية البيانات المستخدمة للتدريب. كما أن تحيز المعالجة المسبقة للبيانات بالإضافة إلى تحيز الآراء والتعليقات على النتائج قد يسبب أيضاً المشاكل. وإذا لم يتم تنفيذ خطوات المعالجة المسبقة للبيانات وتنظيفها وتطبيعها واختيار الميزات بعناية، فيمكن أن يزيل الذكاء الاصطناعي المعلومات ذات الصلة أو أن يعزز التحيزات الموجودة التي أدخلها المُشغل البشري. ويحدث تحيز الآراء عندما يكون المشغل أو المستخدم النهائي متحيزاً لنتيجة معينة، ويشير إلى الذكاء الاصطناعي بأن نتيجة معينة “صحيحة” ويتم تدريبه على اختيار تلك النتائج. ويستمر الذكاء الاصطناعي في تفضيل النتيجة “الصحيحة” ويستمر المشغل في تصنيفها على أنها “صحيحة” حتى لو لم تكن كذلك، مما يؤدي إلى إنشاء حلقة مستمرة من النتائج المتحيزة.

وهناك قلق جديد إلى حد ما متعلق بالأداة الأكثر استخداماً اليوم، وهو عندما تواجه أنظمة الذكاء الاصطناعي التوليدي (GAI) الصعوبات في فهم الأسئلة، مما يتسبب بالتفسير الخاطئ لها، وقد يؤدي ذلك بدوره إلى توليد إجابات غير صحيحة. وهي ظاهرة تعرف باسم “هلوسة الذكاء الاصطناعي”.

وتتنوع أسباب الهلوسة هذه، حيث تفشل خوارزميات الذكاء الاصطناعي والشبكات العصبية للتعلّم العميق في التوافق مع أي بيانات تم التدرّب عليها أو حتى تُظهر أي نمط يمكن تمييزه، وتشمل عوامل خارجة عن البرمجة مثل معلومات الإدخال وتصنيف البيانات غير الصحيح وعدم كفاية البيانات والتدريب ومواجهة التحديات في تفسير الأسئلة باللغات المختلفة أو وضعها في سياقها الصحيح. ومع عدم وجود قيود على أي نوع محدد من البيانات، يمكن أن يحدث ذلك في مختلف أشكال البيانات الاصطناعية وتشمل: النصوص والصور وملفات الصوت والفيديو ورموز الحاسوب.

العدالة المقصودة
للتغلب على التحيز وحماية العدالة في تحليلات البيانات الضخمة المعززة بالذكاء الاصطناعي، يُعدّ اتباع نهج استباقي أمر ضروري للغاية، حيث يمكن لمبادئ “العدالة المقصودة” أن تساعد في توجيه طريقة تطوير أنظمة الذكاء الاصطناعي التي من غير المرجح أن تتسبب بالتحيز أو تشجع عليه. ويُقلّل ضمان تنوع بيانات التدريب وتمثيلها للسكان الذين سيخدمهم نظام الذكاء الاصطناعي من خطر نقص التمثيل أو التمثيل الزائد لمجموعات معينة، في حين سيساعد التدقيق المنتظم لأنظمة الذكاء الاصطناعي في تحديد التحيز وتصحيحه.

ولحسن الحظ، هناك طرق لتطوير الخوارزميات التي تعمل على تخفيف التحيز بنشاط. على سبيل المثال، تهدف تقنيات مثل تقليل انحياز الخصومة إلى تقليل التمييز في تنبؤات النماذج. ويمكننا أيضاً أن نجعل أنظمة الذكاء الاصطناعي أكثر شفافية وقابلية للتفسير، مما يسمح للمستخدمين وأصحاب المصلحة بالحصول على نظرة دقيقة حول كيفية اتخاذ القرارات، وهو ما يمكن أن يساعد في تحديد التحيّزات ومعالجتها.

اترك رد

Your email address will not be published.