باحثون: ثلاثة معايير للذكاء الاصطناعي الجدير بالثقة

51

AI بالعربي – خاص 

طَوَّر باحثون من جامعة لينشوبينغ، خارطة طريق تَهدُف إلى توجيه صانعي السياسات نحو مستقبل ذكاء اصطناعي جدير بالثقة. وحَدَّد الباحثون ثلاثة معايير له، وكان في مقدمتها تلبية العديد من المخاوف الأخلاقية، والتوافق مع القوانين، ويجب أن يكون تنفيذه قويًا وآمنًا.

يتمتع الذكاء الاصطناعي بحضور مُتزايد في حياتنا اليومية، ويُعتقد أن هذه ليست سوى البداية. ومع ذلك؛ لكي يستمر هذا يجب التأكد من أن الذكاء الاصطناعي جدير بالثقة في جميع السيناريوهات. وللمساعدة في هذا المسعى، تقوم جامعة Linköping (LiU) بتنسيق TAILOR، وهو مشروع تابع للاتحاد الأوروبي طَوَّر خارطة طريق قائمة على الأبحاث تَهدُف إلى توجيه هيئات تمويل الأبحاث وصُنَّاع القرار نحو الذكاء الاصطناعي الموثوق به في المستقبل. TAILOR هو اختصار لأسس الذكاء الاصطناعي الجدير بالثقة والدمج والتعلم والتحسين والاستدلال.

 

مشروع TAILOR

بتمويل من برنامج EU Horizon 2020، يُعد TAILOR واحدًا من ستة مشاريع بحثية تم إنشاؤها لتطوير الذكاء الاصطناعي في المستقبل. تعمل TAILOR على وضع أُسس الذكاء الاصطناعي الجدير بالثقة، من خلال إنتاج إطار عمل وإرشادات ومواصفات لاحتياجات مجتمع أبحاث الذكاء الاصطناعي.

تعدُّ خارطة الطريق التي قدَّمها المشروع الخطوة الأولى على طريق التوحيد القياسي؛ إذ يمكن لصانعي القرار وهيئات تمويل الأبحاث، اكتساب فهم لتطوير الذكاء الاصطناعي الجدير بالثقة. ومع ذلك، يجب حل مشاكل البحث قبل أن يجري تحقيق ذلك.

أكد “فريدريك هاينز”، أستاذ الذكاء الاصطناعي في LiU، ومنسق مشروع TAILOR، أهمية الذكاء الاصطناعي الجدير بالثقة، موضحًا أن تطوير الذكاء الاصطناعي لا يزال في مهده. عندما ننظر إلى الوراء وإلى ما نفعله اليوم بعد 50 عامًا، سنجده بدائيًا جدًا. بمعنى آخر، لا يزال يتعين اكتشاف معظم المجال؛ لهذا السبب من المهم وضع الأساس لذكاء اصطناعي جدير بالثقة الآن.

 

معايير الذكاء الاصطناعي الجدير بالثقة

حَدَّد الباحثون ثلاثة معايير للذكاء الاصطناعي الجدير بالثقة: يجب أن يبدد العديد من المخاوف الأخلاقية، ويجب أن يتوافق مع القوانين، ويجب أن يكون تنفيذه قويًا وآمنًا. ومع ذلك، فإن هذه المعايير تطرح تحديات؛ ولا سيما في غرس المبادئ الأخلاقية.

وأوضح “هاينز”: “خذوا العدالة على سبيل المثال، هل يعني هذا توزيعًا متساويًا للموارد، أم أن جميع الجهات الفاعلة تتلقى الموارد اللازمة للوصول بها جميعًا إلى نفس المستوى؟ نحن نواجه أسئلة رئيسية طويلة المدى، وسوف يستغرق الأمر وقتًا قبل الإجابة عنها. تذكروا لقد ناقش الفلاسفة والعلماء تعريف العدالة لمئات السنين”.

 

المحور المركزي للمشروع

ستكون الأسئلة الشاملة الكبيرة هي المحور المركزي للمشروع، وسيتم تطوير المعايير لجميع أولئك الذين يعملون مع الذكاء الاصطناعي. ومع ذلك، يعتقد “هاينز”، أنه لا يمكن تحقيق ذلك إلا إذا كان البحث الأساسي في الذكاء الاصطناعي يمثل أولوية قصوى.

غالبًا ما ينظر الناس إلى الذكاء الاصطناعي على أنه مشكلة تقنية، ولكن المهم حقًا هو هل نحقق فائدة مجتمعية منه. قال “هاينز”، إذا أردنا الحصول على ذكاء اصطناعي يمكن الوثوق به ويعمل بشكل جيد في المجتمع، يجب أن نتحقق من أنه يركز على الناس.

تمت كتابة العديد من المقترحات القانونية المكتوبة داخل الاتحاد الأوروبي والدول الأعضاء فيه من قبل متخصصين قانونيين، ولكن يُعتقد أنهم يفتقرون إلى المعرفة المتخصصة في مجال الذكاء الاصطناعي وهي مشكلة خطرة وفقًا لـ”هاينز”.

يجب أن تستند التشريعات والمعايير إلى المعرفة. هذا هو المكان الذي يمكننا فيه نحن الباحثين المساهمة، وتقديم معلومات حول الصدارة الحالية للبحث، واتخاذ قرارات مبنية على أسس جيدة ممكنة. من المهم أن تتاح للخبراء الفرصة للتأثير على أسئلة من هذا النوع.

اترك رد

Your email address will not be published.