AI بالعربي – متابعات
كشفت دراسة بحثية حديثة عن فجوة متنامية بين ثقة المؤسسات في جاهزيتها لإدارة تقنيات الذكاء الاصطناعي، وبين واقع سياسات الوصول المطبقة فعليًا داخل بيئات العمل. الدراسة أظهرت أن توسّع استخدام الذكاء الاصطناعي يضاعف مخاطر الهجمات المرتكزة على الهوية، في وقت لا تزال فيه كثير من المؤسسات تعمل بعقلية وصول تقليدية.
ثقة مرتفعة تخفي ممارسات قديمة
أفادت الدراسة بأن 76% من المؤسسات ترى أن استراتيجيات إدارة الوصول ذات الصلاحيات العالية لديها قادرة على التعامل مع الذكاء الاصطناعي والحوسبة السحابية والبيئات الهجينة.
إلا أن النتائج كشفت اعتمادًا واسعًا على افتراضات الوصول الدائم، وهي افتراضات صُممت لبيئات أقل تعقيدًا واستقرارًا. هذا التناقض يعكس فجوة حقيقية بين الخطاب المؤسسي والممارسة التشغيلية اليومية.
المؤسسات تبالغ في تقدير جاهزيتها التقنية
اعتمدت الدراسة على آراء 500 متخصص في مجالات أمن الهوية وإدارة الوصول والبنية التحتية. وأظهرت النتائج أن مسارات التحديث ما زالت محدودة الأثر.
نسبة ضئيلة فقط انتقلت إلى نماذج وصول تكيفية قائمة على مبدأ انعدام الثقة. الدراسة بيّنت أن 1% فقط من المؤسسات تطبق نموذجًا يمنح الصلاحيات عند الحاجة ولمدة محددة.
في المقابل، أقرّ 91% بأن نصف صلاحيات الوصول على الأقل متاحة بشكل دائم، ما يفتح الباب لوصول غير مقيّد إلى أنظمة حساسة.
كما أظهرت النتائج أن 45% من المؤسسات تطبق الضوابط نفسها على وكلاء الذكاء الاصطناعي والمستخدمين البشريين. الأخطر أن 33% أقرت بغياب سياسات واضحة تنظم وصول تقنيات الذكاء الاصطناعي داخل المؤسسة.
امتيازات خفية توسّع سطح الهجوم
سلّطت الدراسة الضوء على تفاقم ما يُعرف بامتيازات الوصول الخفية. هذه الامتيازات تشمل حسابات وأسرارًا ذات صلاحيات عالية لم تعد خاضعة للرقابة أو لم تعد ضرورية. بمرور الوقت، تتحول إلى نقاط ضعف صامتة داخل الأنظمة.
وفق النتائج، 54% من المؤسسات تكتشف أسبوعيًا حسابات أو أسرارًا ذات صلاحيات عالية غير مُدارة. كما أفادت 88% بأنها تستخدم أداتين أو أكثر لأمن الهوية، ما يؤدي إلى تشتت أمني وظهور نقاط عمياء خطيرة.
تعقيد الضوابط يعرقل التنفيذ
أظهرت الدراسة أن الضوابط التقليدية لا تمثل فقط خطرًا أمنيًا، بل عبئًا تشغيليًا أيضًا. 66% من المشاركين أكدوا أن مراجعات صلاحيات الوصول تؤخر تنفيذ المشاريع. في الوقت نفسه، أقرّ 63% بأن الموظفين يتجاوزون الضوابط الرسمية لتسريع العمل. هذا السلوك يعكس فجوة بين متطلبات الأمن وسرعة الابتكار.
تحذير من تأجيل تحديث إدارة الصلاحيات
قال مات كوهين، الرئيس التنفيذي لشركة “سايبر أرك”، إن البيئات التشغيلية المتغيرة أعادت تعريف طبيعة الصلاحيات وآليات حمايتها. وأوضح أن الاكتفاء بنماذج قديمة لم يعد خيارًا قابلًا للاستمرار.
وأكد أن محدودية اعتماد نماذج الصلاحيات عند الحاجة فقط تكشف عن تأخر جماعي في تحديث هذا المجال. ومع توسّع أدوار وكلاء الذكاء الاصطناعي والهويات غير البشرية، تصبح الحوكمة الدقيقة لكل هوية ضرورة لا يمكن تجاهلها.
توصيات عملية لتقليل المخاطر ودعم الابتكار
خلصت الدراسة إلى أن تقليل المخاطر لا يعني إبطاء الابتكار. الحل يكمن في إعادة تصميم نماذج الوصول.
أوصت الدراسة بتقليص الصلاحيات الدائمة عبر نماذج وصول ديناميكية قائمة على تقييم المخاطر. كما شددت على اعتماد أتمتة منسّقة تمنح الصلاحيات عند الحاجة فقط للعمليات عالية الحساسية.
وأكدت ضرورة تطبيق ضوابط مناسبة على المستخدمين والأنظمة ووكلاء الذكاء الاصطناعي وفق السياق. توحيد منصات إدارة الهوية اعتُبر خطوة أساسية لتعزيز الرؤية وتحسين الحوكمة.








