الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

الخوف من الفشل والرفض المجتمعي من أبرز الأسباب التي تواجه الحكومات لتبني الذكاء الاصطناعي

AI بالعربي – متابعات

أشارت دراسة جديدة لشركة جارتنر للأبحاث، إلى أن أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات تعامل مباشر مع المواطنين معززة بالذكاء الاصطناعي، وذلك بحلول عام 2027. وبيّنت الدراسة أن الخوف من الفشل العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومي للتكنولوجيا سيؤديان إلى إبطاء اعتماد التكنولوجيا للاستخدام الخارجي مع المواطنين.

وكما هو الحال مع باقي القطاعات خلال الأشهر الـ15 الماضية، تقوم الحكومات باستطلاع الفرص والمخاطر المرتبطة بانتشار الذكاء الاصطناعي التوليدي. وأظهر الاستبيان العالمي الذي أجرته جارتنر لأكثر من 2,400 رئيس تنفيذي لشؤون المعلومات وتنفيذيين عاملين في مجال التكنولوجيا، أن 25% من الحكومات نشرت أو تخطط لنشر الذكاء الاصطناعي التوليدي خلال الأشهر الـ12 المقبلة، وأن نسبة 25% إضافية تخطط لنشره خلال الأشهر الـ24 المقبلة. وكان التركيز في المراحل الأولى على تأسيس شبكة حوكمة أولية لدعم التجارب والاعتماد على نطاق ضيق.

وقال دين لاتشيكا، نائب الرئيس للتحليلات لدى جارتنر: “على الرغم من الفائدة التي تحققها الحكومات منذ أعوام طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجاً، فإن المخاطر وحالة عدم اليقين تسهم في إبطاء اعتماد الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى الضوابط التقليدية للتخفيف من حدة الانجراف بعيداً والأوهام المرتبطة بهذه التكنولوجيا. بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إضعاف القبول العام لاستخدام الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع المواطنين”.

التوفيق بين الاعتماد والاستعداد للمخاطرة

بهدف إيجاد حل لهذه المسألة، توصي جارتنر الحكومات بمواصلة النشر النشط لحلول الذكاء الاصطناعي التوليدي التي تحسن من الجوانب الداخلية لخدمات المواطنين.

وأضاف لاتشيكا: “يجب على اعتماد الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكب استعدادها للمخاطرة، وذلك لضمان عدم تسبب الخطوات الخاطئة لاستخدام الذكاء الاصطناعي في إضعاف قبول المجتمع للتكنولوجيا في مجال تقديم الخدمات الحكومية، ما يعني أن الفرص في مكاتب العمليات الخلفية سوف تتطور بوتيرة أسرع من استخدامات التكنولوجيا لخدمة المواطنين مباشرة”.

ويمكن للمؤسسات الحكومية وفقًا لشركة جارتنر أن تسرّع اعتماد الذكاء الاصطناعي التوليدي من خلال التركيز على حالات الاستخدام التي تؤثر بشكل رئيسي في الموارد الداخلية، وتجنب المخاطر المتوقعة المرتبطة بخدمات التعامل المباشر مع المواطنين، وبناء المعارف والمهارات المرتبطة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة وتخفيف المخاطر ذات الصلة عبر وضع أطر عمل شفافة لحوكمة وضمانات الذكاء الاصطناعي لتشمل كل من قدرات الذكاء الاصطناعي المطورة داخلياً والتي يتم شراؤها كذلك.

وتابع لاتشيكا: “تحتاج أطر العمل هذه، على وجه الخصوص، إلى معالجة المخاطر المرتبطة بحالات الاستخدام الخاصة بخدمات التعامل المباشر مع المواطنين، مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات الآمنة. ويمكن تحقيق ذلك من خلال ضمان قيام إجراءات الحوكمة بمعالجة كل من تلك المخاطر قبل مرحلة التنفيذ الأولي وبعدها”.

إضافة إلى ذلك، فإنه “يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف في ما يخص الهياكل المتمحورة حول العنصر البشري، وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع المواطنين أو أفراد طواقم العمل، الأمر الذي يضمن بقاء الحلول متوافقة مع توقعات المجتمع، وذلك عندما يتعلق الأمر بتحديد كيفية ومتى يجب استخدامها من منظور التعامل المباشر مع المواطنين”.

Related Posts

الشركات الصينية تتجه للتدريب الخارجي لنماذج الذكاء الاصطناعي لتفادي قيود “إنفيديا”

AI بالعربي – متابعات اتخذت كبرى شركات التكنولوجيا الصينية مسارًا جديدًا للتعامل مع القيود الأميركية المتصاعدة على رقاقات الذكاء الاصطناعي، عبر تدريب نماذجها اللغوية الكبيرة في مراكز بيانات خارج البلاد…

“واتساب” يحظر روبوتات الذكاء الاصطناعي مطلع 2026

AI بالعربي – متابعات اتخذت شركة ميتا خطوة مفصلية ستغيّر شكل سوق الذكاء الاصطناعي داخل تطبيقات المراسلة، بعد إعلانها رسميًا حظر استخدام روبوتات الدردشة العامة التابعة لأطراف ثالثة داخل تطبيق…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 82 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 169 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 169 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 193 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 340 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 418 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law