الذكاء الاصطناعي.. هل يجب أن نكون أكثر احترازًا؟
AI بالعربي – متابعات
يبقى التغيير مستمرًا، وأصبحنا نتقبل التغيرات الجديدة كجزء من حياتنا اليومية، خاصة مع تقدم التكنولوجيا الحديثة. لم نعد نشعر بالدهشة من الابتكارات المستقبلية. لكن حادثة وقعت في مصنع “تسلا” بولاية تكساس كانت صادمة. فقد تعرض مهندس برمجيات للاعتداء من قبل “روبوت” قام بتثبيته، مما أدى إلى إصابته بجروح خطيرة وغرز مخالبه المعدنية في ذراعه وظهره، مما تسبب له في فقدان كميات كبيرة من الدم.
في واقعة أخرى، دفع رجل حياته ثمنًا لخطأ تقني، داخل أحد مصانع كوريا الجنوبية بالخطأ، عندما فشلت أحد أنظمة الروبوت في التمييز بين الرجل وصناديق الفلفل أو الخضراوات، التي يقوم الآلي بوضعها على السير المخصص داخل المصنع.
الاحتراس واجب
ما سبق يجعلنا ندقق النظر جيدًا في هذه الحوادث التي لم يعد السبب فيها الحديث مع الروبوت أو الغرق في أحلام اليقظة، بل إن مخاطر الأعمال باتت تواجهنا من جوانب أخرى. صحيح أنَّه قد يدفع العديد من العُمَّال حياتهم ثمنًا في أكثر من مهنة ومجال، فهناك المحاجر والمحارق وأفران الحديد، وغيرها مما قد يشكِّل خطورة، تبعًا لطبيعة أعمال تقليدية؛ لذا فالاحتراس واجب.
ماهية المخاطر في عد الذكاء الاصطناعي
في إطار عمل إدارة مخاطر الذكاء الاصطناعي (RMF AI)، تُعَرَّف المخاطر على أنها مقياس مركب يجمع بين احتمال وقوع حدث معين ومدى تأثيره. يمكن أن تتسم آثار أنظمة الذكاء الاصطناعي بعواقب إيجابية، سلبية، أو بظهور فرص وتهديدات.
وبحسب تقرير الإدارة التابعة للمعهد الوطني للمعايير والتكنولوجيا وإشراف وزارة التجارة الأميركية، تُعرَّف المخاطرة في سياق دراسة الآثار السلبية للأحداث المحتملة على أنها دالة تشمل مدى التأثير السلبي أو حجم الضرر في حال وقوع الحدث أو
احتمالية وقوعه. وقد تطال هذه التأثيرات السلبية الأفراد، والجماعات، والمجتمعات، والمنظمات، والمجتمع ككل، والبيئة، وحتى كوكب الأرض.
إذًا.. ماذا تكون أوجه المخاطر المحتملة؟
يتناول التقرير، الذي صدر برعاية وزارة الخارجية الأميركية عام 2023، أوجه الضرر المحتملة والمخاطر المرتبطة باستخدام أنظمة الذكاء الاصطناعي، حيث تركز الأولوية على الأفراد في المنظمات والنظم البيئية بطرق متعددة، كما يلي:
1-الأفراد: قد تتعرض الحريات المدنية والحقوق الفردية للخطر، مما يؤثر سلبًا على السلامة الجسدية والنفسية، بالإضافة إلى التأثير على الفرص الاقتصادية المتاحة.
2- الفئات السكانية أو المجتمعات المحلية: يمكن أن تتعرض مجموعات سكانية معينة للتمييز أو الأذى، مما ينعكس سلبًا على فئات فرعية منها.
3-المجتمع: قد تؤثر هذه الأنظمة على المشاركة الديمقراطية وتقلل من فرص الحصول على التعليم.
4-المنظمات: يمكن أن تتعرض عمليات المنظمات وعناصرها التجارية والموارد للضرر، سواء من خلال انتهاكات أمنية، أو خسائر مالية، أو تأثيرات سلبية على السمعة.
5-النظام المالي العالمي: قد تتسبب أنظمة الذكاء الاصطناعي في أضرار للنظام المالي العالمي أو سلاسل التوريد والأنظمة المتشابكة.
6-النظم البيئية: من الممكن أن تلحق أنظمة الذكاء الاصطناعي ضررًا بالموارد الطبيعية والبيئة، مما يؤثر في كوكب الأرض بشكل عام.
إطار عمل مخاطر الذكاء الاصطناعي..”RMF AI” هو الحل
يتذرع مطوِّرو الذكاء الاصطناعي وأنظمة الأتمتة بأن مخاطر الأتمتة ليست مقلقة في إطار عمل مخاطر الذكاء الاصطناعي”RMF AI”، الذي يهدف إلى تقليل الآثار السلبية المحتملة لأنظمة الذكاء الاصطناعي، مثل التهديدات التي قد تتعرض لها الحريات والحقوق المدنية. كما يسعى هذا الإطار إلى توفير الفرص لتحقيق أقصى استفادة من التأثيرات الإيجابية. إن معالجة مخاطر الذكاء الاصطناعي والآثار السلبية المحتملة، وتوثيقها وإدارتها بفعالية، يمكن أن يؤدي إلى تطوير أنظمة ذكاء اصطناعي أكثر موثوقية.
تحديات قياس المخاطر في أنظمة الذكاء الاصطناعي
1- المخاطر المتعلقة ببيانات وبرامج وأجهزة الطرف الثالث
قد تساهم البيانات أو الأنظمة المقدمة من طرف ثالث في تسريع البحث والتطوير وتسهيل الانتقال التكنولوجي، لكنها قد تُعقد قياس المخاطر. يمكن أن تأتي المخاطر من البيانات أو البرامج أو الأجهزة الخاصة بالطرف الثالث نفسه وكيفية استخدامها. كما أن مقاييس المخاطر والمنهجيات التي تتبعها المنظمة المطوِّرة لأنظمة الذكاء الاصطناعي قد تختلف عن تلك المعتمدة من قبل المنظمة المسؤولة عن نشر النظام، مما يؤدي إلى اختلافات في تقييم المخاطر. ويزداد الأمر تعقيدًا في حالة عدم وجود الشفافية الكافية في منهجيات القياس أو في غياب هياكل حوكمة داخلية وضمانات تقنية.
2- تتبع المخاطر الناشئة
من شأن تعزيز جهود إدارة المخاطر عبر تحديد وتتبع المخاطر الناشئة، واعتماد تقنيات قياس مناسبة، أن يساعد الجهات الفاعلة في فهم الأضرار المحتملة وتأثيراتها في سياقات محددة، ما يسهم في رفع كفاءة تقييم المخاطر.
3- توفير مقاييس موثوقة
من أبرز التحديات عدم وجود إجماع حول منهجيات قياس قوية وقابلة للتحقق فيما يتعلق بالمخاطر والموثوقية، إلى جانب صعوبة تطبيق المقاييس على حالات استخدام متنوعة للذكاء الاصطناعي. وقد تعاني المقاييس من التبسيط المفرط أو الغموض عند تكييفها مع سياقات محددة، مما قد يؤثر في دقة القياس.
4- تباين المخاطر على مدار دورة الحياة
قد تختلف نتائج تقييم المخاطر اعتمادًا على مرحلة دورة حياة النظام؛ فقد تظل بعض المخاطر كامنة في مرحلة مبكرة، ثم تزداد بمرور الوقت مع تطور النظام وتكيّفه. كما أن الجهات المختلفة قد تكون لها رؤى متباينة حول المخاطر، حيث يرى المطور الأصلي للنظام المخاطر من منظور مختلف عن الجهة المسؤولة عن نشره.
5- المخاطر في السياقات الواقعية
قد تقدم قياسات المخاطر في البيئات المختبرية أو الخاضعة للرقابة رؤية مسبقة عن المخاطر، لكن هذه التقديرات قد تختلف عند مواجهة النظام للبيئات التشغيلية الواقعية.
6- الغموض في أنظمة الذكاء الاصطناعي
يعد الغموض في أنظمة الذكاء الاصطناعي تحديًا كبيرًا في قياس المخاطر؛ إذ قد ينجم هذا الغموض عن محدودية التفسير أو الافتقار إلى الشفافية والتوثيق الكافي خلال تطوير النظام أو نشره، مما يزيد من صعوبة التقييم الموضوعي للمخاطر.
7- المرجعية البشرية
تحتاج إدارة مخاطر الذكاء الاصطناعي إلى معايير مقارنة مرجعية خاصة عند تنفيذ النظام لمهام تستبدل أو تعزز النشاط البشري مثل اتخاذ القرار.
من يضمن؟
إطار العمل لإدارة المخاطر (AI RMF) يمكن أن يكون مفيدًا في تحديد أولويات المخاطر المرتبطة بأنظمة الذكاء الاصطناعي، إلا أنه لا يتضمن توجيهات محددة حول “تحمل المخاطر (Risk Appetite). تحمل المخاطر يشير إلى مدى استعداد المنظمة أو الجهات المعنية في مجال الذكاء الاصطناعي لقبول المخاطر لتحقيق أهدافها المنشودة. ويعتمد تحمل المخاطر بشكل كبير على السياق الذي تُستخدم فيه التكنولوجيا، وكذلك على متطلبات التطبيق والاستخدام، وهو يتأثر بعوامل مختلفة منها القوانين والمعايير التنظيمية والسياسات الداخلية، بخاصة أن الأتمتة والذكاء الاصطناعي تمتدان نحونا من خلال منظومات كالمركبات ذاتية القيادة، التي سيكون على متنها مئات وآلاف البشر.
تتفاوت درجة تحمل المخاطر بين المنظمات بناءً على أولوياتها ومواردها، كما يعتمد ذلك أيضًا على السياسات والمعايير التي تحددها جهات مثل الصناعات والمجتمعات وواضعي السياسات. مع تطور أنظمة الذكاء الاصطناعي، تتغير مستويات تحمل المخاطر، خاصة مع تقدم السياسات والقوانين التي تنظم استخدامها.
ختامًا، تستمر المؤسسات في تطوير أساليب إدارة المخاطر الناشئة، وتقديم بيانات أفضل لفهم الأضرار المحتملة وموازنة التكلفة والفوائد. وتشارك الشركات والحكومات والمجتمع المدني في مناقشة وتقييم هذه المخاطر. ورغم أن إطار العمل AI RMF يعد أداة مرنة لتوجيه إدارة المخاطر، فإنه قد لا يكون قابلاً للتطبيق بسهولة في بعض السياقات. وتتطلب إدارة المخاطر في الذكاء الاصطناعي نهجًا أكثر تفصيلًا لمعالجة المخاطر السلبية المتزايدة مع مرور الوقت.
فمهما تطورت أو عولجت الأنظمة الذكية، ألا يجدر بنا أن نكون أكثر احترازًا؟