مخاوف الذكاء الاصطناعي.. هل ما زالت هناك نقطة عمياء؟
AI بالعربي – متابعات
يعتبر الباحثون أن بحوث الذكاء الاصطناعي تمثل إحدى سمات وتجارب الحداثة التي تقدم لنا جديدًا يوميًا. على الرغم من أن تاريخ هذا المجال يعود إلى خمسينيات القرن الماضي، مع إرهاصات سابقة لذلك، فإن هذا الضيف الجديد الذي أصبح جزءًا من حياتنا لا يزال يحمل في جعبته العديد من المفاجآت المستقبلية التي تثير المخاوف، نظرًا لتطوراته المستمرة.
في عام 2016، نشرت مجلة “Nature” ورقة بحثية بعنوان “There is a blind spot in AI research”، التي تناولت مخاوف تتعلق بالذكاء الاصطناعي، مشيرةً إلى أننا ما زلنا نواجه نقاط عمياء مستقبلية في هذا المجال. تثير هذه المخاوف قلق الباحثين والمتخصصين، خصوصًا فيما يتعلق بالخوارزميات مثل الشبكات العصبية، وتصنيف البيانات، والتعلم العميق، وخوارزميات التعلم المعزز. رغم أن هذه الخوارزميات تتمتع بمهارة عالية في التحليل الإحصائي ورصد البيانات واتخاذ القرارات، فإنها لا تزال تثير تصورات مخيفة، من بينها إمكانية أن تحل محل الإنسان.
قلق مُثار حينئذٍ
داخل الورقة، تم الاستشهاد برأي أحد علماء الحاسوب الذي أشار إلى أن “الناس يقلقون من أن تصبح الحواسيب ذكية للغاية وتسيطر على العالم، لكن المشكلة الحقيقية هي أنها غبية جدًا وقد سيطرت بالفعل”. يعكس هذا الاقتباس القلق من أن الأنظمة المدعومة بالذكاء الاصطناعي، المستخدمة في العديد من المجالات، قد تكون غير موثوقة. بالإضافة إلى ذلك، أظهرت الأبحاث وقتئذٍ أن العيوب المرتبطة بأنظمة الذكاء الاصطناعي تؤثر بشكل غير متناسب في المجموعات التي تعاني التمييز، مثل الفئات السكانية المعرضة للتمييز العنصري أو الجنسي.
ثلاثة حلول مؤقَّتة
لتجنب مثل هذه الآثار، هناك ثلاثة أساليب شائعة للتعامل مع المخاوف المتعلقة بالتأثيرات الاجتماعية والأخلاقية للأنظمة المعتمدة على الذكاء الاصطناعي: الامتثال، والقيم في التصميم، والتجارب الفكرية. ويُعتبر كل من هذه الأساليب مهمًا، لكن لا يُعتبر أي منها كافيًا بمفرده.
– الامتثال: تتخذ الشركات خطوات أساسية للامتثال لمجموعة من أفضل الممارسات الصناعية أو الالتزامات القانونية، لتجنب التدقيق من الحكومة أو وسائل الإعلام. ولكن هذه الطريقة قد تكون غير كافية إذا كانت تفتقر إلى الأصوات النقدية والمساهمين المستقلين.
– القيم في التصميم: تم تطوير أطر مثل التصميم الحسّاس للقيم لمساعدة الشركات في تحديد القيم المحتملة للمستخدمين. ومع ذلك، فإن هذه الأدوات تعمل غالبًا على فرضية أن النظام سيتم بناؤه، وتكون أقل قدرة على مساعدتهم في تقرير ما إذا كان ينبغي بناء نظام من الأساس.
– التجارب الفكرية: تهيمن المواقف الافتراضية على النقاش العام حول التأثيرات الاجتماعية للذكاء الاصطناعي، ولكن هذه التجارب تركز على أسئلة ضيقة وتقدم القليل من التوجيه حول القضايا الاجتماعية الأوسع.
مثال شيكاغو الذي أرَّق الباحثين
تُعتبر خوارزميات الذكاء الاصطناعي أداة قوية في مجال تحليل البيانات وتوقع الأحداث، حيث تُستخدم في تطبيقات متعددة لتحسين اتخاذ القرار. على سبيل المثال، تُستخدم خرائط الحرارة المولدة خوارزميًا في مدينة شيكاغو لتحديد الأفراد الأكثر احتمالاً للتورط في حوادث إطلاق النار، وتعتمد هذه الخرائط على تحليل البيانات التاريخية والأنماط السلوكية لتوجيه الموارد الشرطية. ومع ذلك، ورغم ابتكارها، فقد أثبتت هذه الخوارزميات عدم فعاليتها في كثير من الحالات.
من الأبعاد السلبية لاستخدام هذه الخوارزميات، أنها تزيد من احتمالية استهداف بعض الأفراد من قبل الشرطة بناءً على تحليلات قد تكون خاطئة أو مبنية على تنميط اجتماعي. هذا الاستهداف يمكن أن يؤدي إلى انتهاكات للحقوق المدنية ويعزز من الفجوات الاجتماعية القائمة، حيث تزداد المخاوف من استهداف الأفراد بشكل غير عادل. وبالتالي، فإن الاعتماد المفرط على هذه الأنظمة في تطبيق القانون يمكن أن يُعزز من المشكلات بدلاً من تقليلها، مما يستدعي الحاجة إلى مراجعة دقيقة لكيفية استخدام هذه التقنيات في مجالات حساسة مثل الأمن العام.
مثال آخر
ويُشير المثال الآخر إلى دراسة تظهر أن تقنية التعلم الآلي التي تُستخدم للتنبؤ بمضاعفات الالتهاب الرئوي تعمل بشكل جيد في معظم الحالات، لكنها ارتكبت خطأ جسيمًا عندما نصحت الأطباء بإرسال مرضى الربو إلى المنزل رغم أنهم ضمن فئة عالية المخاطر.
حل رابع
لهذا أشار المقال – المنشور في المجلة العلمية البريطانية – إلى ضرورة الحاجة إلى وجود نهج رابع، يتمثَّل في تحليل الأنظمة الاجتماعيَّة، ويتطلَّب ذلك من الباحثين ومتخصصين في مجموعة متنوعة من التخصصات البدء في التحقيق في كيفية تأثير الوصول غير المتكافئ إلى المعلومات والثروة والخدمات الأساسية على البيانات التي يتدرب عليها الذكاء الاصطناعي. لا سيَّما مع فرضية قالت إنَّه يمكن أن تستقصي طريقة تحليل الأنظمة الاجتماعية، على سبيل المثال، كيف تؤثر تطبيقات مثل AiCure – التي تتبع التزام المرضى بتناول الأدوية الموصوفة وتنقل السجلات إلى الأطباء – على العلاقة بين الطبيب والمريض. كما يمكن أن تستكشف ما إذا كان استخدام البيانات التاريخية للتنبؤ بمواقع الجرائم يؤدي إلى زيادة فرض القانون على المجتمعات المهمشة.
لكن الآن، ومع بروز تحدِّيات متقدِّمة يواجهها الذكاء الاصطناعي، مثل عدم الثقة الناتجة عن صعوبة فهم كيفية توقع نماذج التعلم العميق للنتائج، وتحدِّيات أُخرى في الأنظمة تحمل التكاليف الباهظة لتدريب نماذجه. هذا إلى جانب قلة وعي الشركات الصغيرة والمتوسطة بإمكانات هذه التقنيات والفوائد التي يمكن أن تقدمها.
هنا لا تزال البُحوث تُجرى، ولا يزال الخُبراء يتجادلون بشأن المخاوف، وما زال السؤال يتجدد: “هل ما زالت هناك نقطة عمياء لم نكتشفها بعد؟ وكيف نصل إليها؟”.