تساؤلات كبرى حول خدمة الذكاء الاصطناعي للمجتمع والصالح العام

13

AI بالعربي – متابعات

تعمل أدوات الذكاء الاصطناعي على تغيير كثير من الجوانب التي لا تُعَد ولا تُحصى من الحياة الحديثة بسرعة مذهلة، بدءاً من الرؤى الاقتصادية والسلامة العامة، وحتى وسائل التواصل الاجتماعي والمجتمع بشكل عام. ونحن نعلم أنه على الرغم من كل التغيرات التي أحدثتها تقنية الذكاء الاصطناعي حتى الآن، فإنه ما زال هناك مزيد من التغييرات التي ستطرأ في المستقبل.

تساؤلات كبرى

ولذلك، فإن هذه هي اللحظة المناسبة للرد على بعض الأسئلة الكبيرة، مثل: ما هو الذكاء الاصطناعي المسؤول؟ وماذا يعني تصميم خوارزميات أخلاقية؟ وكيف يمكننا تصميم أدوات ذكاء اصطناعي من أجل تحقيق الصالح العام اليوم، لضمان غدٍ أكثر أماناً؟

صحيح أن الإجابة عن هذه الأسئلة ليست بسيطة؛ لكنها ضرورية، فهذا هو ما اتفق عليه فريق من الخبراء خلال جلسة شهدت حلقة نقاشية أجرتها شركة “موتورولا سولوشنز” في قمة الشركات الأكثر ابتكاراً التي نظمتها مجلة “فاست كومباني” في شهر مايو الماضي.

مسؤولية أخلاقية وثقة وأمان

وفيما يلي 3 نقاط رئيسية تمت مناقشتها خلال هذه الجلسة:

1- مفاهيم الثقة تعتمد بشكل كبير على السياق. ماذا يعني أن يكون الذكاء الاصطناعي أخلاقيًا ومسؤولًا وآمنًا وجديرًا بالثقة؟ يقول مايكل كيرنز، الباحث في شركة “أمازون”، وأستاذ علوم الحاسب الآلي وتكنولوجيا المعلومات في جامعة بنسلفانيا الأميركية، إن الإجابة عن هذا السؤال معقدة للغاية، ما يجعل من الصعب مناقشة الأمر على مستوى مفاهيمي خالٍ من وجود سياق محدد.

وأضاف كيرنز: “لقد أدى عصر الذكاء الاصطناعي التوليدي إلى إدخال المجتمع في حلقة مفرغة بعدة طرق، وذلك بسبب مدى انفتاح المخرجات الناتجة عنه، فمن الصعب جداً تحديد هذه الأمور في غياب أي حالات استخدام محددة؛ حيث إن الأمر يعتمد بشكل كبير على الغرض الذي استُخدمت هذه التقنية من أجله”.

استخدام الألفاظ والأفكار السامة

وقدم كيرنز مثالاً بسيطاً يتعلق باستخدام الألفاظ والأفكار السامة، قائلاً إنه في حال استخدم شخص ما الذكاء الاصطناعي كوسيلة مساعدة في كتابة كتاب للأطفال، فإن مدى تسامح التكنولوجيا مع استخدام الألفاظ والأفكار السامة سيكون صفراً، ولكن إذا كان يتم استخدامه من أجل كتابة رواية تاريخية، فإنه ستكون هناك مرونة “تدخل” أكبر.

دور الحالة العاطفية للبشر

ومع ذلك، فإن مسألة السياق هذه ليست مرتبطة بالظروف والمواقف المحددة فحسب؛ بل إن الأمر ينطبق أيضًا على الحالة العاطفية الحالية للبشر الذين يسعون إلى الاستفادة من أداة الذكاء الاصطناعي، حسبما أضاف ماهيش سابثاريشي، وهو نائب الرئيس التنفيذي ورئيس قسم التكنولوجيا في “موتورولا سولوشنز”.

وتابع سابثاريشي: “يقول العاملون في مجال تأمين السلامة العامة، إن وظائفهم عبارة عن ساعات من الملل تتخللها لحظات من الرعب، ولذا فإنه يجب أن تخدم نفس مجموعة الأدوات الخاصة بالسلامة قاعدة الزبائن، لكي تحمي مجتمعاتنا عندما نكون في حالة استرخاء، أو عندما نشعر بالملل، أو عندما نكون في حالة توتر كبير”.

ويجب على شركة “موتورولا سولوشنز” أن تأخذ هذه الحقيقة بعين الاعتبار، عند تطوير أدوات الذكاء الاصطناعي الخاصة بها، لاستخدامات السلامة العامة، مثل الترجمة الآلية بين مشغلي رقم الطوارئ في الولايات المتحدة “911” والمتصلين الذين لا يتحدثون اللغة نفسها، ويتم إطلاق اسم “العوامل البشرية عالية السرعة” على هذا المبدأ التصميمي، وهو ما يعني الحاجة إلى إنشاء أدوات تظل بسيطة وفعَّالة عندما يكون المستخدمون تحت ضغط شديد.

النظم الذكية فريدة في مخاطرها

2- المخاطر من الناحية التشغيلية. يمثل الذكاء الاصطناعي فئة فريدة من نوعها، من حيث إدارة المخاطر التقليدية.

وقال باتريك هيوستن “وهو جنرال متقاعد بالجيش الأميركي، وعضو فريق عمل الذكاء الاصطناعي التابع لمكتب التحقيقات الفيدرالي إف بي آي”: “بالنسبة لي، فإن الذكاء الاصطناعي المسؤول، هو مجموعة فرعية أو جزء من إدارة المخاطر التقليدية. فنحن نطلق عليه اسماً خاصاً به، وذلك ليس لأن الذكاء الاصطناعي هو أمر حديث فحسب؛ بل لأنه يحمل بعض المخاطر الفريدة الخاصة به”.

وفي رأي هيوستن، فإن الذكاء الاصطناعي يشكل 5 مخاطر فريدة:

أولاً- لأنه يعد تقنية غامضة؛ حيث إن القوى الدافعة لعملية صنع القرارات والعمليات الأخرى في الذكاء الاصطناعي لا تكون شفافة، في كثير من الأحيان.

ثانيًا- لأنه متغير باستمرار، وذلك لأن الذكاء الاصطناعي يتعلم ويتطور بشكل مستمر، بناءً على البيانات.

ثالثًا- يمكن أن يكون متحيزاً؛ لأنه يتم تصميمه وتدريبه من قبل البشر الذين قد يقدمون هذا التحيز بطريقة غير مقصودة.

رابعًا- يمكن أن يتسبب في نشوء معلومات غير دقيقة، لأسباب غالباً ما تكون غير واضحة.

خامسًا- يمكن أن يحل محل بعض أنواع الوظائف، ما يجعل بعض الفئات من الأشخاص تشعر بعدم الثقة إزاءه بطبيعة الحال.

ابتكار بشري يتطلب تصميمًا إنسانيًا

اتفق الخبراء المشاركون في المناقشة على أن هذه التحديات صعبة، ولكن يجب أخذها في الاعتبار والتصدي لها، وتخفيف حدتها قدر الإمكان، في حال أراد الناس أن يضعوا ثقتهم في أدوات الذكاء الاصطناعي.

وقال كيرنز: “هناك كثير مما نعرفه علميًا، ولكن علينا أن نتذكر أن هذه الأدوات الموجودة في هذه الأنظمة هي عبارة عن ابتكارات تكنولوجية صنعناها بأنفسنا، ولذا فإن الحل الأول الذي يجب النظر فيه هو تصميم تلك التكنولوجيا بشكل يساعد على تخفيف حدة هذه المشكلات أو تجنبها. فمن الأفضل بكثير أن نعمل على حل المشكلة في المقام الأول، بدلاً من أن نلجأ للتسوية أو تنظيم العمل بهذه الأدوات، بعد وقوع الأضرار بالفعل”.

شراكة الذكاء الاصطناعي مع الإنسان

3- أقوى الإمكانات تكمن في شراكة الذكاء الاصطناعي مع الإنسان. عند سؤاله عن أهم استخدامات أدوات الذكاء الاصطناعي في مجال السلامة العامة، رأى سابثاريشي أن هناك فئتين رئيسيتين: الأولى هي عندما يتمكن الذكاء الاصطناعي من إزالة الاحتكاك الذي يتم خلال تواصل الناس بعضهم مع بعض، مثل الترجمة التلقائية للغات خلال مكالمات خدمة الطوارئ “911”.

أما الفئة الثانية، فهي توصيل الأشخاص المناسبين بالمعلومات الصحيحة اللازمة في أوقات الحاجة. وضرب سابثاريشي مثالاً من العالم الحقيقي على ذلك، قائلاً إنه عندما فُقد طفل من ذوي الاحتياجات الخاصة في إحدى المدن الواقعة شمال شرقي الولايات المتحدة، كان لدى رجال الشرطة لقطات من مئات كاميرات الفيديو المزودة بتحليلات أدوات الذكاء الاصطناعي.

وأضاف سابثاريشي: “تستخدم هذه المدينة تقنيات “موتورولا سولوشنز” على نطاق واسع، ولذلك فإنه كان بإمكانهم البحث في هذه اللقطات من خلال أوصاف الطفل، وفي غضون دقائق قليلة، كان نظامنا قادراً على أن يخبرهم بالأماكن التي لم يوجد فيها الطفل، وبهذه الطريقة، ساعدت هذه الأدوات الآلية على تركيز انتباه الإنسان على المكان الذي يمكن أن يوجد فيه الطفل، وعلى نحو فعَّال، أزال الذكاء الاصطناعي كومة القش، وسمح للبشر بالعثور على الإبرة التي كانت ضائعة داخلها”.

وبالفعل تم العثور على الطفل بسرعة، وتمت إعادته إلى والديه بأمان، وهو ما كان ناتجاً عن جهد مشترك بين الذكاء الاصطناعي والقوى البشرية.

من جهته، قال هيوستن: “السر هو الجمع بين البشر والآلات بطرق تستفيد من نقاط القوة الموجودة لدى كل منهما، إلا أن الناس يقدمون الأمر في بعض الأحيان كما لو كان خياراً بين إما هذا وإما ذاك، قائلين: يجب أن تختار إما الإنسان وإما آلة الذكاء الاصطناعي، أيهما ستختار؟ لكني أرى أن هذا يشير إلى عملية فصل زائفة؛ إذ يمكننا الحصول على كليهما، كما يمكننا الحصول على أفضل ما فيهما”.

اترك رد

Your email address will not be published.