كن حذرا عندما يلتقي التمويل بالذكاء الاصطناعي
AI بالعربي – متابعات
تبدو معضلة كولينغريدرج كعنوان لغز شيرلوك هولمز. إنها، بالفعل، أحد أفضل التفسيرات لمدى صعوبة التحكم بالتكنولوجيا الخطرة. في جوهره، يتعلق الأمر باختلال التوازن بين المعلومة غير الكاملة والقوة الراسخة.
كتب الأكاديمي ديفيد كولينغريدرج في كتابه “الرقابة الاجتماعية على التكنولوجيا” The Social Control of Technology، “عندما يكون التغيير سهلا، لا يمكن توقع الحاجة له. وعندما تكون الحاجة للتغيير واضحة، يصبح التغيير باهظ الثمن، وصعبا، ويستغرق كثيرا من الوقت”.
كيف يمكننا التصرف عند التعامل مع المجهول المعروف؟ يواجه المنظمون هذه المعضلة اليوم مع محاولتهم تقييم أثر الذكاء الاصطناعي في صناعة التمويل. كما أوضح تقريران حديثان من بنك التسويات الدولية ومنظمة التعاون الاقتصادي والتنمية، فقد وصلنا الآن إلى منعطف مهم. وفي حين أن فوائد الذكاء الاصطناعي واضحة من حيث زيادة الكفاءة وتحسين الخدمة، فإن المخاطر عادة ما تكون غير واضحة.
وفي ورقة بحثية نشرت سابقا أثناء وجوده في معهد ماساتشوستس للتكنولوجيا، حذر جاري جينسلر من أن الاعتماد الواسع على نماذج الذكاء الاصطناعي للتعلم العميق قد يزيد حتى من هشاشة النظام المالي. من الجيد أن جينسلر يترأس الآن لجنة الأوراق المالية والبورصات الأمريكية وفي مكان يسمح له بالإجابة عن المخاوف التي أثارها سابقا.
لا يوجد نقص في الآراء حول المبادئ التي ينبغي أن تحكم الذكاء الاصطناعي. وفقا لمنظمة ألوغريثم واتش، وهي منظمة غير ربحية مقرها برلين، تم نشر ما لا يقل عن 173 مجموعة من مبادئ الذكاء الاصطناعي حول العالم. من الصعب الاختلاف مع النيات النبيلة الواردة في هذه الإرشادات التي تعد بالعدالة، والمساءلة، والشفافية. لكن التحدي يكمن في ترجمة المبادئ السامية إلى ممارسة يومية نظرا إلى تعقيد وانتشار وغموض كثير من حالات استخدام الذكاء الاصطناعي.
أنظمة اتخاذ القرار الآلية تستخدم في مجالات الرهون العقارية والقروض الاستهلاكية وتخصيص درجات الائتمان. وتقوم أنظمة معالجة اللغة الطبيعية بإجراء تحليل للمشاعر على بيانات أرباح الشركات، وبكتابة نصائح استثمارية مخصصة لمستثمري التجزئة. وتستخدم شركات التأمين أنظمة التعرف على الصور لتقييم تكلفة إصلاح السيارات.
وعلى الرغم من استخدام الذكاء الاصطناعي في هذه الحالات قد يؤثر في حقوق – وثروة – الأفراد والعملاء، إلا أنه لا يمثل خطرا نظاميا. ذلك أن عديدا من هذه المخاوف تتم تغطيتها بتشريعات قيد الإعداد، بما في ذلك قواعد الذكاء الاصطناعي في الاتحاد الأوروبي. هذه المبادرات التشريعية تلقي بشكل منطقي على أي منظمة تنشر نظام ذكاء اصطناعي مسؤولية استخدام بيانات مناسبة وخالية من التحيز، لضمان توافق مخرجاتها مع أهدافها، ولشرح كيفية عملها، وللمساعدة على تحديد الجهة التي تتم مساءلتها إذا سارت الأمور على نحو خاطئ.
السؤال الأكثر غموضا يتعلق باستخدام أنظمة التداول التي تعمل بالذكاء الاصطناعي، التي قد تزعزع استقرار الأسواق المالية. تقول سارة جاد، رئيسة حلول البيانات والذكاء الاصطناعي في بنك كريدي سويس، هناك مخاطر من سلوك الاحتشاد، أو اللعب، أو السلوك التواطئي إذا تم تدريب جميع الأنظمة على البيانات نفسها وأنواع الخوارزميات نفسها.
تضيف، “يجب عليك أن تراقب هذه الأمور من كثب – أو لا تستخدمها. يجب أن تملك الحق في الحصول على المفاتيح لإيقاف عملها في أجزاء من الثانية وأن يكون لديك أشخاص يمكنك الرجوع إليهم. إنك لا تستطيع استبدال ذكاء الآلة بذكاء الإنسان”.
لكن آخرين يشيرون إلى أن الانهيارات الخاطفة حدثت قبل وقت طويل من استخدام الذكاء الاصطناعي في الأسواق المالية. السؤال هو ما إذا كانت أنظمة الذكاء الاصطناعي تجعلها أسوأ. يقول إيوان كيرك، مؤسس شركة كانتاب كابيتال بارتنرز، وهي صندوق استثماري يستخدم خوارزميات التداول، إن أنظمة الذكاء الاصطناعي ليست شيئا سحريا، إنها مجرد وسيلة إحصائية. “الأمر الوحيد الذي تجيد أنظمة الذكاء الاصطناعي العثور عليه هو التأثيرات الدقيقة بشكل لا يصدق التي تتضمن قدرا هائلا من البيانات وربما لا تكون نظامية بطبيعتها”، مضيفا أن سبب وجود مفتاح القفل ليس لأن برنامج الذكاء الاصطناعي قد يقضي على النظام المالي، ولكن لأنه ربما يحتوي على خطأ.
أفضل طريقة للتعامل مع معضلة كولينغريدج هي من خلال زيادة المعرفة حول الذكاء الاصطناعي في الشركات وعبر المجتمع، والتحقق من قوة المصالح الراسخة التي قد تعيق التغيير الضروري. عديد من المنظمين يعملون بالفعل على هذه القضية، ويستضيفون منتديات الذكاء الاصطناعي، ويطورون صناديق الحماية التنظيمية لاختبار الخوارزميات والتحقق منها، ونشر أنظمة التعلم الآلي الخاصة بهم لمراقبة الأسواق.
لكن هناك حجة مفادها أن هناك أيضا مجاهيل مجهولة، حسب تعبير دونالد رامسفيلد وزير الدفاع الأمريكي الأسبق، وأننا في بعض الظروف يجب أن نستخدم مبدأ الاحتراز.
ينبغي أن يكون المنظمون على استعداد لحظر استخدام أنظمة الذكاء الاصطناعي الأكثر غرابة، أو سيئة التصميم حتى نفهم بشكل أفضل كيفية عملها في العالم الحقيقي.