الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

24

AI بالعربي – متابعات

أشارت دراسة جديدة لشركة جارتنر للأبحاث، إلى أن أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات تعامل مباشر مع المواطنين معززة بالذكاء الاصطناعي، وذلك بحلول عام 2027. وبيّنت الدراسة أن الخوف من الفشل العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومي للتكنولوجيا سيؤديان إلى إبطاء اعتماد التكنولوجيا للاستخدام الخارجي مع المواطنين.

وكما هو الحال مع باقي القطاعات خلال الأشهر الـ15 الماضية، تقوم الحكومات باستطلاع الفرص والمخاطر المرتبطة بانتشار الذكاء الاصطناعي التوليدي. وأظهر الاستبيان العالمي الذي أجرته جارتنر لأكثر من 2,400 رئيس تنفيذي لشؤون المعلومات وتنفيذيين عاملين في مجال التكنولوجيا، أن 25% من الحكومات نشرت أو تخطط لنشر الذكاء الاصطناعي التوليدي خلال الأشهر الـ12 المقبلة، وأن نسبة 25% إضافية تخطط لنشره خلال الأشهر الـ24 المقبلة. وكان التركيز في المراحل الأولى على تأسيس شبكة حوكمة أولية لدعم التجارب والاعتماد على نطاق ضيق.

وقال دين لاتشيكا، نائب الرئيس للتحليلات لدى جارتنر: “على الرغم من الفائدة التي تحققها الحكومات منذ أعوام طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجاً، فإن المخاطر وحالة عدم اليقين تسهم في إبطاء اعتماد الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى الضوابط التقليدية للتخفيف من حدة الانجراف بعيداً والأوهام المرتبطة بهذه التكنولوجيا. بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إضعاف القبول العام لاستخدام الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع المواطنين”.

التوفيق بين الاعتماد والاستعداد للمخاطرة

بهدف إيجاد حل لهذه المسألة، توصي جارتنر الحكومات بمواصلة النشر النشط لحلول الذكاء الاصطناعي التوليدي التي تحسن من الجوانب الداخلية لخدمات المواطنين.

وأضاف لاتشيكا: “يجب على اعتماد الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكب استعدادها للمخاطرة، وذلك لضمان عدم تسبب الخطوات الخاطئة لاستخدام الذكاء الاصطناعي في إضعاف قبول المجتمع للتكنولوجيا في مجال تقديم الخدمات الحكومية، ما يعني أن الفرص في مكاتب العمليات الخلفية سوف تتطور بوتيرة أسرع من استخدامات التكنولوجيا لخدمة المواطنين مباشرة”.

ويمكن للمؤسسات الحكومية وفقًا لشركة جارتنر أن تسرّع اعتماد الذكاء الاصطناعي التوليدي من خلال التركيز على حالات الاستخدام التي تؤثر بشكل رئيسي في الموارد الداخلية، وتجنب المخاطر المتوقعة المرتبطة بخدمات التعامل المباشر مع المواطنين، وبناء المعارف والمهارات المرتبطة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة وتخفيف المخاطر ذات الصلة عبر وضع أطر عمل شفافة لحوكمة وضمانات الذكاء الاصطناعي لتشمل كل من قدرات الذكاء الاصطناعي المطورة داخلياً والتي يتم شراؤها كذلك.

وتابع لاتشيكا: “تحتاج أطر العمل هذه، على وجه الخصوص، إلى معالجة المخاطر المرتبطة بحالات الاستخدام الخاصة بخدمات التعامل المباشر مع المواطنين، مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات الآمنة. ويمكن تحقيق ذلك من خلال ضمان قيام إجراءات الحوكمة بمعالجة كل من تلك المخاطر قبل مرحلة التنفيذ الأولي وبعدها”.

إضافة إلى ذلك، فإنه “يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف في ما يخص الهياكل المتمحورة حول العنصر البشري، وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع المواطنين أو أفراد طواقم العمل، الأمر الذي يضمن بقاء الحلول متوافقة مع توقعات المجتمع، وذلك عندما يتعلق الأمر بتحديد كيفية ومتى يجب استخدامها من منظور التعامل المباشر مع المواطنين”.

اترك رد

Your email address will not be published.