الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

AI بالعربي – متابعات

أشارت دراسة جديدة لشركة جارتنر للأبحاث، إلى أن أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات تعامل مباشر مع المواطنين معززة بالذكاء الاصطناعي، وذلك بحلول عام 2027. وبيّنت الدراسة أن الخوف من الفشل العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومي للتكنولوجيا سيؤديان إلى إبطاء اعتماد التكنولوجيا للاستخدام الخارجي مع المواطنين.

وكما هو الحال مع باقي القطاعات خلال الأشهر الـ15 الماضية، تقوم الحكومات باستطلاع الفرص والمخاطر المرتبطة بانتشار الذكاء الاصطناعي التوليدي. وأظهر الاستبيان العالمي الذي أجرته جارتنر لأكثر من 2,400 رئيس تنفيذي لشؤون المعلومات وتنفيذيين عاملين في مجال التكنولوجيا، أن 25% من الحكومات نشرت أو تخطط لنشر الذكاء الاصطناعي التوليدي خلال الأشهر الـ12 المقبلة، وأن نسبة 25% إضافية تخطط لنشره خلال الأشهر الـ24 المقبلة. وكان التركيز في المراحل الأولى على تأسيس شبكة حوكمة أولية لدعم التجارب والاعتماد على نطاق ضيق.

وقال دين لاتشيكا، نائب الرئيس للتحليلات لدى جارتنر: “على الرغم من الفائدة التي تحققها الحكومات منذ أعوام طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجاً، فإن المخاطر وحالة عدم اليقين تسهم في إبطاء اعتماد الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى الضوابط التقليدية للتخفيف من حدة الانجراف بعيداً والأوهام المرتبطة بهذه التكنولوجيا. بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إضعاف القبول العام لاستخدام الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع المواطنين”.

التوفيق بين الاعتماد والاستعداد للمخاطرة

بهدف إيجاد حل لهذه المسألة، توصي جارتنر الحكومات بمواصلة النشر النشط لحلول الذكاء الاصطناعي التوليدي التي تحسن من الجوانب الداخلية لخدمات المواطنين.

وأضاف لاتشيكا: “يجب على اعتماد الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكب استعدادها للمخاطرة، وذلك لضمان عدم تسبب الخطوات الخاطئة لاستخدام الذكاء الاصطناعي في إضعاف قبول المجتمع للتكنولوجيا في مجال تقديم الخدمات الحكومية، ما يعني أن الفرص في مكاتب العمليات الخلفية سوف تتطور بوتيرة أسرع من استخدامات التكنولوجيا لخدمة المواطنين مباشرة”.

ويمكن للمؤسسات الحكومية وفقًا لشركة جارتنر أن تسرّع اعتماد الذكاء الاصطناعي التوليدي من خلال التركيز على حالات الاستخدام التي تؤثر بشكل رئيسي في الموارد الداخلية، وتجنب المخاطر المتوقعة المرتبطة بخدمات التعامل المباشر مع المواطنين، وبناء المعارف والمهارات المرتبطة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة وتخفيف المخاطر ذات الصلة عبر وضع أطر عمل شفافة لحوكمة وضمانات الذكاء الاصطناعي لتشمل كل من قدرات الذكاء الاصطناعي المطورة داخلياً والتي يتم شراؤها كذلك.

وتابع لاتشيكا: “تحتاج أطر العمل هذه، على وجه الخصوص، إلى معالجة المخاطر المرتبطة بحالات الاستخدام الخاصة بخدمات التعامل المباشر مع المواطنين، مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات الآمنة. ويمكن تحقيق ذلك من خلال ضمان قيام إجراءات الحوكمة بمعالجة كل من تلك المخاطر قبل مرحلة التنفيذ الأولي وبعدها”.

إضافة إلى ذلك، فإنه “يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف في ما يخص الهياكل المتمحورة حول العنصر البشري، وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع المواطنين أو أفراد طواقم العمل، الأمر الذي يضمن بقاء الحلول متوافقة مع توقعات المجتمع، وذلك عندما يتعلق الأمر بتحديد كيفية ومتى يجب استخدامها من منظور التعامل المباشر مع المواطنين”.

Related Posts

“سلوك الإنسان كمادة خام”.. النماذج تولّد المستقبل من أخطائنا

“سلوك الإنسان كمادة خام”.. النماذج تولّد المستقبل من أخطائنا AI بالعربي – متابعات مقدمة منذ ظهور الذكاء الاصطناعي، كان الإنسان يظن أنه هو من يُعلِّم الآلة. لكن الواقع انقلب رأسًا…

“إيطاليا” تطلق أنظمة جديدة للذكاء الاصطناعي لتعزيز أمن المتاحف.. بعد سرقة متحف “اللوفر”

AI بالعربي – متابعات أعلنت وزارة الثقافة الإيطالية الاثنين عن انطلاق مشروعين تجريبيّين لإدماج أنظمة ذكاءٍ اصطناعي مطوّرة في متاحف البلاد. وبيّنت الوزارة أن “أمن التراث الثقافي أصبح أولويةً قصوى”،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 165 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 255 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 267 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 203 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 231 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 162 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف