الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

AI بالعربي – متابعات

أشارت دراسة جديدة لشركة جارتنر للأبحاث، إلى أن أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات تعامل مباشر مع المواطنين معززة بالذكاء الاصطناعي، وذلك بحلول عام 2027. وبيّنت الدراسة أن الخوف من الفشل العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومي للتكنولوجيا سيؤديان إلى إبطاء اعتماد التكنولوجيا للاستخدام الخارجي مع المواطنين.

وكما هو الحال مع باقي القطاعات خلال الأشهر الـ15 الماضية، تقوم الحكومات باستطلاع الفرص والمخاطر المرتبطة بانتشار الذكاء الاصطناعي التوليدي. وأظهر الاستبيان العالمي الذي أجرته جارتنر لأكثر من 2,400 رئيس تنفيذي لشؤون المعلومات وتنفيذيين عاملين في مجال التكنولوجيا، أن 25% من الحكومات نشرت أو تخطط لنشر الذكاء الاصطناعي التوليدي خلال الأشهر الـ12 المقبلة، وأن نسبة 25% إضافية تخطط لنشره خلال الأشهر الـ24 المقبلة. وكان التركيز في المراحل الأولى على تأسيس شبكة حوكمة أولية لدعم التجارب والاعتماد على نطاق ضيق.

وقال دين لاتشيكا، نائب الرئيس للتحليلات لدى جارتنر: “على الرغم من الفائدة التي تحققها الحكومات منذ أعوام طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجاً، فإن المخاطر وحالة عدم اليقين تسهم في إبطاء اعتماد الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى الضوابط التقليدية للتخفيف من حدة الانجراف بعيداً والأوهام المرتبطة بهذه التكنولوجيا. بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إضعاف القبول العام لاستخدام الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع المواطنين”.

التوفيق بين الاعتماد والاستعداد للمخاطرة

بهدف إيجاد حل لهذه المسألة، توصي جارتنر الحكومات بمواصلة النشر النشط لحلول الذكاء الاصطناعي التوليدي التي تحسن من الجوانب الداخلية لخدمات المواطنين.

وأضاف لاتشيكا: “يجب على اعتماد الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكب استعدادها للمخاطرة، وذلك لضمان عدم تسبب الخطوات الخاطئة لاستخدام الذكاء الاصطناعي في إضعاف قبول المجتمع للتكنولوجيا في مجال تقديم الخدمات الحكومية، ما يعني أن الفرص في مكاتب العمليات الخلفية سوف تتطور بوتيرة أسرع من استخدامات التكنولوجيا لخدمة المواطنين مباشرة”.

ويمكن للمؤسسات الحكومية وفقًا لشركة جارتنر أن تسرّع اعتماد الذكاء الاصطناعي التوليدي من خلال التركيز على حالات الاستخدام التي تؤثر بشكل رئيسي في الموارد الداخلية، وتجنب المخاطر المتوقعة المرتبطة بخدمات التعامل المباشر مع المواطنين، وبناء المعارف والمهارات المرتبطة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة وتخفيف المخاطر ذات الصلة عبر وضع أطر عمل شفافة لحوكمة وضمانات الذكاء الاصطناعي لتشمل كل من قدرات الذكاء الاصطناعي المطورة داخلياً والتي يتم شراؤها كذلك.

وتابع لاتشيكا: “تحتاج أطر العمل هذه، على وجه الخصوص، إلى معالجة المخاطر المرتبطة بحالات الاستخدام الخاصة بخدمات التعامل المباشر مع المواطنين، مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات الآمنة. ويمكن تحقيق ذلك من خلال ضمان قيام إجراءات الحوكمة بمعالجة كل من تلك المخاطر قبل مرحلة التنفيذ الأولي وبعدها”.

إضافة إلى ذلك، فإنه “يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف في ما يخص الهياكل المتمحورة حول العنصر البشري، وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع المواطنين أو أفراد طواقم العمل، الأمر الذي يضمن بقاء الحلول متوافقة مع توقعات المجتمع، وذلك عندما يتعلق الأمر بتحديد كيفية ومتى يجب استخدامها من منظور التعامل المباشر مع المواطنين”.

Related Posts

مذيعة افتراضية بتقنيات الذكاء الاصطناعي تُقدّم أول وثائقي عبر شاشة بريطانية

AI بالعربي – متابعات بثت قناة بريطانية مساء الاثنين الماضي وثائقيًا يستعرض أثر الذكاء الاصطناعي على مستقبل الوظائف، بمقدمة برامج افتراضية جرى توليدها عبر الذكاء الاصطناعي بدلاً من مذيعة حقيقية.…

هل “ChatGPT” يراقبك؟ خبير أمن سيبراني يوضح الحقيقة التقنية

AI بالعربي – متابعات تتزايد التساؤلات في الأوساط الرقمية حول مدى قدرة أدوات الذكاء الاصطناعي على مراقبة المستخدمين. وتنتشر بين الحين والآخر مقاطع فيديو على مواقع التواصل تزعم أن “ChatGPT”…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 167 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 257 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 268 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 204 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 233 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 164 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف