اتجاهات حوكمة الذكاء الاصطناعي: كيف تشكل اللوائح والتعاون وطلب المهارات الصناعة؟

14

Heather Domin

يُحدث الذكاء الاصطناعي تحولًا في مختلف الصناعات، حيث يدرك القادة إمكانيات هذه التكنولوجيا في تعزيز الإنتاجية، وزيادة الإبداع، وتحسين الجودة، وتقديم حلول مبتكرة. هذا الأمر أدى إلى ارتفاع ملحوظ في الطلب على الذكاء الاصطناعي، خصوصًا الذكاء الاصطناعي التوليدي.

يمكن أن يكون فتح قيمة الذكاء الاصطناعي التوليدي من خلال التحول المسؤول يمكن أن يكون بمثابة تغيير جذري. ويمكن العثور على حالات استخدام الذكاء الاصطناعي التوليدي في العديد من الصناعات، من إلهام التصميمات الجديدة في صناعة الأثاث وتخصيص التسويق إلى تسريع اكتشاف الأدوية في صناعة الأدوية.

ومع ذلك، بالإضافة إلى القيمة المحتملة للذكاء الاصطناعي، يشعر القادة أيضًا بالقلق حيال مخاطره، بما في ذلك التحيز، والسلامة، والأمان، وفقدان السمعة إذا حدث شيء خطأ.

يعترف كثير من القادة أيضًا بأن التخفيف من هذه المخاطر يمكن أن يؤدي إلى ميزة تنافسية ويسهم بشكل أساسي في نجاح منظماتهم. لذلك، أصبح اعتماد التكنولوجيا بشكل أخلاقي ومسؤول اعتبارًا رئيسيًا، مما أدى إلى ظهور سريع واعتماد حوكمة الذكاء الاصطناعي.

تنظيم الذكاء الاصطناعي موجود ويتوسع

يخضع الذكاء الاصطناعي للوائح المعمول بها التي تركِّز على أكثر من مجرد التكنولوجيا نفسها. على سبيل المثال، تركِّز القوانين على الخصوصية، ومكافحة التمييز، والمسؤولية، وسلامة المنتجات. بالإضافة إلى ذلك، فإن النشاط التنظيمي المتعلق بالذكاء الاصطناعي يتوسع.

في عام 2024، أخيرًا تم إقرار قانون الذكاء الاصطناعي للاتحاد الأوروبي، أو قانون الذكاء الاصطناعي للاتحاد الأوروبي، بعد سنوات من المناقشة والترقب. ومثله كمثل اللائحة العامة لحماية البيانات (GDPR)، نتوقع أن يؤثر هذا القانون في كثير من القوانين المماثلة في مناطق أخرى من العالم.

تمت مناقشة الذكاء الاصطناعي من قبل صانعي السياسات على مستوى العالم، وتم ذكره في الإجراءات التشريعية بمعدل ضعف ما كان عليه في عام 2022. في بعض الحالات، يكون النشاط التنظيمي مركزًا بشكل واضح على الذكاء الاصطناعي التوليدي، مثل التدابير الإدارية المؤقتة لخدمات الذكاء الاصطناعي التوليدي في الصين.

كما شهدنا زيادة الأنشطة المتعلقة بالمعايير الخاصة بالذكاء الاصطناعي، بالإضافة إلى التعاون عبر السلطات القضائية، ويتضح ذلك من المبادرات التي تقودها منظمة التعاون والتنمية الاقتصادية (OECD)، والمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة (NIST)، ومنظمة الأمم المتحدة للتربية والعلم والثقافة (UNESCO)، والمنظمة الدولية للتوحيد القياسي (ISO)، ومجموعة الدول السبع (G7).

في عام 2024، شهدنا زيادة في التركيز على سلامة الذكاء الاصطناعي مع إطلاق معاهد جديدة لسلامة الذكاء الاصطناعي وتوسع الجهود التي تقودها المعاهد في الولايات المتحدة والمملكة المتحدة وسنغافورة واليابان. كما سيركز المكتب الجديد للذكاء الاصطناعي في الاتحاد الأوروبي، الذي تم إنشاؤه بموجب قانون الذكاء الاصطناعي للاتحاد الأوروبي، على تطوير أفضل الممارسات.

يمكننا أن نتوقع استمرار هذا النمو في حجم وتنوع لوائح ومعايير الذكاء الاصطناعي في المستقبل المنظور، حيث يتعامل صانعو السياسات مع كيفية إدارة مخاطر الذكاء الاصطناعي. وستؤدي الاتفاقيات الدولية بشأن المعايير القابلة للتشغيل المتداخل والمتطلبات التنظيمية الأساسية، دورًا مهمًا في تمكين الابتكار وتحسين سلامة الذكاء الاصطناعي.

ستتطلب حوكمة الذكاء الاصطناعي الذاتية كلًا من الضوابط التنظيمية والتقنية

تختار العديد من المنظمات اعتماد أساليب الحوكمة الذاتية لتعزيز التوافق مع قيمها التنظيمية وبناء مكانة مرموقة.

في الواقع، يتطلب تنفيذ مبادئ المنظمة غالبًا الالتزام بالمعايير الأخلاقية التي تتجاوز المتطلبات التنظيمية. وقد تختار المنظمات الاستفادة من الأساليب والأطر الطوعية مثل إطار إدارة مخاطر الذكاء الاصطناعي للمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة (NIST)، وإطار عمل وأدوات التحقق من الذكاء الاصطناعي في سنغافورة، ومنصة اختبار سلامة الذكاء الاصطناعي مفتوحة المصدر لمعهد سلامة الذكاء الاصطناعي في المملكة المتحدة.

ستتضمن الحوكمة الذاتية لأنظمة الذكاء الاصطناعي كلًا من الضوابط التنظيمية، وأيضًا الضوابط التقنية الآلية بشكل متزايد. ويتطلب الذكاء الاصطناعي أنظمة إدارة تنظيمية قوية مع ضوابط مثل تلك الموصوفة في المعيار الدولي ISO/IEC 42001.

تعتبر الضوابط التقنية مهمة بنفس قدر الأنظمة الاجتماعية والتقنية. ويمكن أن تساعد الأتمتة في ذلك، على سبيل المثال، من خلال الأتمتة في فرق الاختبار الحمراء للذكاء الاصطناعي “وهي طريقة منظمة لاختبار نماذج الذكاء الاصطناعي لتحديد المشكلات والمساعدة في الحماية من السلوكيات أو النتائج الضارة”، وتحديد البيانات الوصفية، والتسجيل، والمراقبة، والتنبيهات.

ستكون الأتمتة ضرورية مع وصول التكنولوجيا إلى سرعات وذكاء يتطلبان ضوابط في الوقت الفعلي. علاوة على ذلك، مع تقدم المعايير المتناغمة والضوابط التقنية لسلامة الذكاء الاصطناعي، ستتبنى العديد من المنظمات هذه المعايير.

ستظل التعاون بين البشر والذكاء الاصطناعي أمرًا مهمًا. على سبيل المثال، قامت IBM بتنفيذ ضوابط تنظيمية من خلال مجلس أخلاقيات الذكاء الاصطناعي وبرنامج الحوكمة المتكاملة، وتقدم حلولًا لمساعدة العملاء في تنفيذ الضوابط التنظيمية والتقنية مثل watsonx.governance.

حاجة متزايدة لمهنيي الذكاء الاصطناعي الماهرين

مع استمرار سوق حوكمة الذكاء الاصطناعي في التوسع بسرعة، سيكون هناك طلب كبير على محترفي الذكاء الاصطناعي الماهرين القادرين على تنفيذ الضوابط التنظيمية والتقنية المسؤولة.

ستراوح ساحة المنافسة بين قادة التكنولوجيا الحاليين والشركات الناشئة الجديدة التي تركز تقريبًا بشكل حصري على حلول حوكمة الذكاء الاصطناعي مثل إدارة مخزون الذكاء الاصطناعي، وإدارة السياسات، وإعداد التقارير.

سيتطور السوق لدعم مجالات متخصصة مثل إدارة الحوادث، والاختبار الأحمر، وتقييمات الامتثال، وإعداد تقارير الشفافية، والتوثيق الفني. مع حدوث ذلك، سيكون من الضروري زيادة عدد المهنيين المدربين في حوكمة الذكاء الاصطناعي لدعم هذا التوجه.

سيحتاج هؤلاء المهنيون إلى تدريب لأداء المهام المحددة وفقًا لمتطلبات السوق، بما في ذلك المهام المطلوبة بموجب اللوائح. وستؤدي برامج التعليم والشهادات دورًا حيويًا في هذا السياق. وفي الواقع، لقد شهدنا بالفعل ظهور خيارات جديدة للشهادات، مثل شهادة المحترف في حوكمة الذكاء الاصطناعي من جمعية محترفي الخصوصية الدولية.

بينما ترتبط تكاليف بتدريب المهنيين وتنفيذ ممارسات أخلاقيات وحوكمة الذكاء الاصطناعي بشكل أوسع، فإن تكاليف عدم القيام بهذه الأمور يمكن أن تكون أعلى بكثير.

يمكن للمنظمات الاستفادة من نهج شامل لتقييم العائد على الاستثمار من خلال فحص العوائد التقليدية، بالإضافة إلى العوائد التي تتحقق من خلال التأثير على السمعة وإمكانية بناء قدرات تنظيمية جديدة.

يجب على القادة التأكد من أنهم ينظرون إلى حوكمة الذكاء الاصطناعي من منظور توليد القيمة، وليس فقط من زاوية تجنب المخاطر.

المسار إلى الأمام مفتوح وتعاوني

يغير الذكاء الاصطناعي ويعزز الطريقة التي يعمل بها البشر ويعيشون، مما يوفر فوائد غير مسبوقة للأفراد والمنظمات والمجتمع.

يتطلب توسيع نطاق الذكاء الاصطناعي أفرادًا مهرة، وغالبًا ما يحتاج إلى الأتمتة لدعم الاعتماد المسؤول. ويمكن لهؤلاء المهنيين أيضًا دعم الحاجة المتزايدة للامتثال التنظيمي الفعال والحكم الذاتي.

بينما تجد الشركات حاليًا طرقًا جديدة ومثيرة لاستخدام الذكاء الاصطناعي، فإن المستقبل يحمل وعدًا أكبر، حيث يتقارب مع تقنيات أخرى مثل: الحوسبة الكمومية، والروبوتات، والتكنولوجيا الحيوية، والتكنولوجيا العصبية.

في هذا السياق، ستكون التكنولوجيا المفتوحة والتعاون مع مجموعة متنوعة من أصحاب المصلحة أمرًا حاسمًا. مع تحول الذكاء الاصطناعي في الصناعات، تعتبر حوكمة الذكاء الاصطناعي عنصرًا أساسيًا في تحقيق القيمة الكاملة لهذه التكنولوجيا.

 

المصدر: World Economic Forum

 

 

اترك رد

Your email address will not be published.