الواجب الجديد في مجال الذكاء الاصطناعي يتعلق بتحقيق التوازن بين الابتكار والأم
Louise Axon, Joanna Bouckaert
مع هيمنة الذكاء الاصطناعي على مناقشات مجالس الإدارة حول قرارات الاستثمار العالمية، غالبًا ما يكون قادة الأعمال غير مدركين للمخاطر السيبرانية والرقمية التي تواجهها منظماتُهم عند اعتماد أنظمة الذكاء الاصطناعي، فضلًا عن الاستراتيجيات التي ينبغي لهم اعتمادها للتخفيف من هذه المخاطر.
للبقاء تنافسيًا، يجب على المؤسسات تعزيز الابتكار، بما في ذلك استخدام الذكاء الاصطناعي كأداة لدعم الأعمال. ومع ذلك، فإن التركيز فقط على فرص الذكاء الاصطناعي دون التعامل مع المخاطر السيبرانية المرتبطة قد يعرضها لمخاطر كبيرة. ومن الضروري مراعاة التكلفة الكاملة لحلول الذكاء الاصطناعي، مثل النفقات المتعلقة بالأمن. وبدلاً من تقويض الابتكار، ينبغي لقادة الأمن السيبراني التأكيد على أهمية دمج الأمن منذ البداية، وتطبيق مجموعة مناسبة من ضوابط الأمن السيبراني، وأخذ هذه التكاليف في الاعتبار لضمان الحفاظ على قيمة الأعمال.
لذا، فإن اتباع نهج شامل لفهم تعرض المخاطر السيبرانية وتنفيذ الضوابط المناسبة، هو أمر حاسم لتحقيق الفوائد الكاملة للذكاء الاصطناعي.
مخاطر وتكاليف أمن الذكاء الاصطناعي
توسع تقنيات الذكاء الاصطناعي من نطاق الهجوم على المؤسسات، مما يقدم مخاطر جديدة مثل تسميم بيانات التدريب وإدخال الأوامر. علاوة على ذلك، توفر هذه التقنيات أساليب جديدة لأنواع المخاطر القائمة، حيث إن حجم قواعد بيانات التدريب والاختبار يعرض المؤسسات لمخاطر تسرب البيانات على نطاق واسع.
اعتبار آخر هو أنه بجانب الخصائص التقليدية للأمن السيبراني، مثل السرية والنزاهة والتوافر، قد يتطلب تقييم المخاطر السيبرانية المدفوعة بالذكاء الاصطناعي مراعاة عوامل مثل موثوقية مخرجات النموذج وقابلية الشرح.
يوجد بالفعل وعي في مجتمع الأعمال بشأن أنواع الأضرار التي يمكن أن تنجم عن الهجمات السيبرانية، مثل الأضرار المادية والمالية والأضرار التي تلحق بالسمعة. لا يضيف الذكاء الاصطناعي بالضرورة أنواعًا جديدة من الأضرار مقارنةً بتصنيفات الأضرار السيبرانية الحالية، بل يعززها، مما يزيد من احتمالية وشدة هذه الأضرار القائمة.
تؤثر العوامل السياقية المختلفة للأعمال على مخاطرها السيبرانية، ويجب مراعاتها عند تطوير استراتيجيات التخفيف من مخاطر الذكاء الاصطناعي. والعلاقة بين تقنيات الذكاء الاصطناعي وعمليات الأعمال تؤدي دورًا واضحًا في المخاطر: تواجه المؤسسات التي تستخدم الذكاء الاصطناعي في العمليات الحيوية أو المرتبطة بالبنية التحتية الأساسية مخاطر سيبرانية أكبر بسبب التأثير المحتمل للانقطاعات. كما أن مستوى استقلالية نظام الذكاء الاصطناعي يؤثر أيضًا في المخاطر؛ وبينما يمكن أن تخفف الفحوصات والتوازنات البشرية بعض هذه المخاطر، فإن الحلول القابلة للتوسع ستكون ضرورية لتعزيز تطبيقات الذكاء الاصطناعي. ويمكن أن تتحول أنظمة الذكاء الاصطناعي ذات الاستقلالية العالية إلى تهديدات بحد ذاتها. بالإضافة إلى ذلك، يؤثر مصدر وتقنيات الذكاء الاصطناعي في تقييمات المخاطر بشكل عام.
يمكن أن تؤثر سمات العمل أيضًا في المخاطر وفرص التخفيف منها. وتشمل هذه السمات حجم الشركة، ورغبتها في اعتماد التكنولوجيا الجديدة مبكرًا، وموقعها في سلسلة توريد الذكاء الاصطناعي، سواء كانت تقوم بإنشاء وتوريد نماذج الذكاء الاصطناعي أو كانت مستهلكة للمنتجات والخدمات، والسياق الوطني الذي توجد فيه “بما في ذلك وجود تنظيمات ذات صلة وسوق للأمن السيبراني”.
يتطلب اتخاذ قرارات مستنيرة تعتمد على المخاطر بشأن اعتماد الذكاء الاصطناعي، فهمًا واضحًا للفوائد مقابل الأضرار المحتملة. حاليًا، يفتقر المجال إلى وضوح حول الفوائد الحقيقية للذكاء الاصطناعي، حيث لا تزال حالات الاستخدام تتطور وغالبًا ما تكون مدفوعة بالحماسة، مما يصعب إجراء تحليل دقيق للتكاليف والفوائد.
نهج شامل للضوابط هو المفتاح
سوق الأدوات لتأمين اعتماد الذكاء الاصطناعي في توسع، ولكن العديد من الضوابط لا تزال إما غير متاحة أو صعبة التنفيذ. ومعظم أدوات أمان الذكاء الاصطناعي محددة الاستخدام، مما يعكس الوظائف المتنوعة والتدريب ومخرجات نماذج الذكاء الاصطناعي، مما يجعل من الصعب إنشاء خط أساس عالمي للضوابط.
تحتاج المؤسسات إلى مجموعة متنوعة من ضوابط أمان الذكاء الاصطناعي، بما في ذلك أدوات لشرح وتحليل مخرجات النماذج، ورصد الأمان لنماذج الذكاء الاصطناعي، وإرشادات فرق الاختراق، وأدوات الاسترداد للأنظمة المتضررة، وعمليات إيقاف التشغيل وإجراءات الرجوع “على غرار زر الإيقاف”. قد تتطلب أنظمة الذكاء الاصطناعي أيضًا إشرافًا بشريًا أكبر من البرمجيات التقليدية، نظرًا لعدم القدرة على التنبؤ بمخرجات الذكاء الاصطناعي.
كما هو الحال في مجالات أخرى من الأمن السيبراني، فإن تباين المتطلبات التنظيمية عبر الولايات القضائية يخلق بالفعل تحديات في الامتثال للمنظمات متعددة الولايات. لم يتم بعد توحيد المعايير بشأن الحد الأدنى من الضوابط المطلوبة لتخفيف المخاطر السيبرانية المرتبطة باعتماد الذكاء الاصطناعي.
تقديم تواصل فعال حول المخاطر
يجب على قادة الأمن السيبراني التركيز على التواصل الفعال لمخاطر أمان الذكاء الاصطناعي إلى الأعمال، حيث سيكون ذلك مفتاحًا لدعم طلباتهم الاستثمارية. يحتاج قادة الأعمال إلى فهم كيف ترتبط هذه المخاطر بأولويات العمل. لذلك، من الضروري تطوير مجموعة أدوات لدعم فهم تعرض المنظمة للمخاطر، مصحوبة بإرشادات واضحة حول كيفية التواصل بهذه المعلومات للجماهير المعنية.
يعد التبني الحالي للذكاء الاصطناعي فرصة رائعة لقادة الأمن السيبراني لمساعدة المؤسسات على تحقيق قيمة تجارية من التكنولوجيا، مع حماية عملياتها من التهديدات السيبرانية المرتبطة بها.
يعمل مركز الأمن السيبراني بالمنتدى الاقتصادي العالمي بالتعاون مع مركز القدرات العالمية للأمن السيبراني بجامعة أكسفورد على قيادة مبادرة “الذكاء الاصطناعي والأمن السيبراني: تحقيق التوازن بين المخاطر والمكافآت” لتوجيه استراتيجيات وقادة العالم في اتخاذ القرارات بشأن المخاطر والفرص السيبرانية في سياق اعتماد الذكاء الاصطناعي. تم تطوير هذا العمل بالتعاون مع تحالف حوكمة الذكاء الاصطناعي، الذي أُطلق في يونيو 2023، ويهدف إلى تقديم إرشادات حول التصميم والتطوير والنشر المسؤول لأنظمة الذكاء الاصطناعي.
المصدر: World Economic Forum