AI بالعربي – متابعات
بدأت الجهات الرقابية المالية حول العالم في اتخاذ خطوات أكثر صرامة لمتابعة المخاطر الناشئة عن الذكاء الاصطناعي، بعد أن أصبح الاعتماد عليه واسعًا في البنوك والمؤسسات المالية.
ورغم التفاؤل الذي تبديه المصارف بشأن تحسين الإنتاجية، فإن الهيئات التنظيمية حذّرت من تأثيرات محتملة على استقرار النظام المالي العالمي.
مجلس الاستقرار المالي يحذر من “سلوك القطيع”
قال مجلس الاستقرار المالي (FSB)، التابع لمجموعة العشرين (G20)، في تقرير حديث، إن استخدام عدد كبير من المؤسسات لنماذج الذكاء الاصطناعي نفسها قد يؤدي إلى سلوك جماعي يشبه “سلوك القطيع”.
وأشار المجلس إلى أن هذا الاعتماد المفرط على النماذج الموحدة يمكن أن يخلق ثغرات خطيرة في حال غياب البدائل الكافية.
بنك التسويات الدولية يدعو إلى تعزيز القدرات الرقابية
وفي دراسة منفصلة صادرة عن بنك التسويات الدولية (BIS)، وهو المظلة التي تضم البنوك المركزية العالمية، تم التأكيد على “الحاجة الملحة” لتعزيز قدرات البنوك المركزية والهيئات الرقابية في التعامل مع الذكاء الاصطناعي.
وقالت المجموعة إن من الضروري تطوير مهارات هذه المؤسسات لتصبح “مراقبين مطلعين على التطورات التقنية” وكذلك “مستخدمين فعّالين للتقنيات الجديدة”.
سباق عالمي على قيادة التطوير
تتنافس الولايات المتحدة والصين وعدد من الدول الأخرى على قيادة تطوير تقنيات التعلم الآلي المتقدمة، في سباق عالمي يحدد ملامح الاقتصاد المستقبلي.
وأشار تقرير مجلس الاستقرار المالي إلى أنه رغم احتمال زيادة الضغوط في الأسواق المالية بفعل الذكاء الاصطناعي، لا توجد أدلة تجريبية قوية حتى الآن على أن هذه الارتباطات تؤثر فعليًا في نتائج الأسواق.
تصاعد مخاطر الهجمات الإلكترونية والاحتيال
حذر المجلس من أن المؤسسات المالية قد تكون أكثر عرضة لهجمات إلكترونية مدعومة بالذكاء الاصطناعي، إضافة إلى ارتفاع احتمالات الاحتيال باستخدام تقنيات التوليد الآلي.
وأشار التقرير إلى أن الاعتماد المتزايد على النماذج الذكية يجعل القطاع المالي أكثر انكشافًا على المخاطر التقنية.
الاتحاد الأوروبي يطلق تشريعات جديدة
بدأت بعض الدول والمناطق بالفعل خطوات تنظيمية واضحة، من بينها الاتحاد الأوروبي الذي فعّل قانون المرونة التشغيلية الرقمية (DORA) في يناير الماضي، لتقوية الإطار التشغيلي لمؤسسات الخدمات المالية في مواجهة المخاطر الرقمية والذكاء الاصطناعي.








