كيف تُشكّل اللوائح والتعاون وطلب المهارات الذكاء الاصطناعي؟

8

Heather Domin

يُحوّل الذكاء الاصطناعي الصناعات عبر جميع المجالات، حيث يدرك القادة إمكانيات هذه التقنية لتحسين الإنتاجية وتعزيز الإبداع وزيادة الجودة وتوليد حلول جديدة. وقد أدى ذلك إلى زيادة كبيرة في الطلب على الذكاء الاصطناعي، وبشكل خاص الذكاء الاصطناعي التوليدي.

يمكن أن يفتح الذكاء الاصطناعي التوليدي آفاقًا جديدة في مختلف الصناعات، بدءًا من تصميم المنتجات وتخصيص التسويق وصولًا إلى الاكتشافات العلمية. من خلال التحول المسؤول نحو تبني هذه التقنية، يمكن تحقيق تقدم كبير في مجالات مثل الصحة والتعليم والبيئة.

ومع ذلك، إلى جانب القيمة المحتملة للذكاء الاصطناعي، يشعر القادة أيضًا بالقلق إزاء مخاطرها، بما في ذلك التحيز، والسلامة، والأمان، وفقدان السمعة إذا حدث شيء خطأ.

يعترف العديد من القادة أيضًا بأن التخفيف من هذه المخاطر يمكن أن يؤدي إلى ميزة تنافسية، ويسهم بشكل أساسي في نجاح منظماتهم. لذلك، أصبح اعتماد التكنولوجيا بشكل أخلاقي ومسؤول أولوية قصوى، مما أدى إلى الظهور السريع واعتماد حوكمة الذكاء الاصطناعي.

تنظيم الذكاء الاصطناعي موجود ويتوسع

الذكاء الاصطناعي بالفعل خاضع للوائح المعمول بها، التي تركِّز على أكثر من مجرد التقنية نفسها. على سبيل المثال، تركِّز القوانين على الخصوصية، ومكافحة التمييز، والمسؤولية، وسلامة المنتجات. بالإضافة إلى ذلك، فإن النشاط التنظيمي المرتبط بالذكاء الاصطناعي يتوسع.

في عام 2024، تم أخيرًا إقرار قانون الذكاء الاصطناعي في الاتحاد الأوروبي، أو ما يُعرف بقانون الذكاء الاصطناعي الأوروبي، بعد سنوات من النقاش والترقب. فمثلًا اللائحة العامة لحماية البيانات “GDPR”، نتوقع أن يؤثر هذا القانون على العديد من القوانين المماثلة في مناطق أخرى من العالم.

تمت مناقشة الذكاء الاصطناعي من قبل صانعي السياسات في جميع أنحاء العالم، وتم ذكره في الإجراءات التشريعية مرتين في عام 2023 مقارنةً بعام 2022. في بعض الحالات، يركز النشاط التنظيمي بشكل صريح على الذكاء الاصطناعي التوليدي، مثل التدابير الإدارية المؤقتة لخدمات الذكاء الاصطناعي التوليدي في الصين.

شهدت السنوات الأخيرة زيادة ملحوظة في الأنشطة المتعلقة بوضع معايير للذكاء الاصطناعي، مدفوعةً بتعاون دولي متزايد. وتجسّدت هذه الجهود في مبادرات رائدة تطلقها منظمات عالمية كبرى مثل: منظمة التعاون والتنمية الاقتصادية، والمعهد الوطني للمعايير والتكنولوجيا، واليونسكو، والمنظمة الدولية للتوحيد القياسي، ومجموعة السبع.

في عام 2024، شهدنا زيادة في التركيز على سلامة الذكاء الاصطناعي مع إطلاق معاهد جديدة لسلامة الذكاء الاصطناعي، وتوسيع الجهود التي تقودها المعاهد في الولايات المتحدة والمملكة المتحدة وسنغافورة واليابان. وأيضًا، ستركز الهيئة الجديدة للذكاء الاصطناعي في الاتحاد الأوروبي، التي تم إنشاؤها بموجب قانون الذكاء الاصطناعي الأوروبي، على تطوير أفضل الممارسات.

نتوقع أن يستمر هذا النمو في حجم وتنوع لوائح ومعايير الذكاء الاصطناعي في المستقبل المنظور، حيث يتعامل صانعو السياسات مع كيفية إدارة مخاطر الذكاء الاصطناعي. وستؤدي الاتفاقيات الدولية حول المعايير القابلة للتشغيل المتبادل ومتطلبات التنظيم الأساسية، دورًا مهمًا في تمكين الابتكار وتحسين سلامة الذكاء الاصطناعي.

ستتطلب الحوكمة الذاتية للذكاء الاصطناعي ضوابط تنظيمية وتقنية

تختار العديد من المنظمات اعتماد أساليب الحوكمة الذاتية لتعزيز التوافق مع قيمها التنظيمية وبناء السمعة.

في الواقع، يتضمن تنفيذ مبادئ المنظمة غالبًا الالتزام بالمعايير الأخلاقية التي تتجاوز المتطلبات التنظيمية. وقد تختار المنظمات الاستفادة من الأساليب والأطر الطوعية مثل: إطار إدارة مخاطر الذكاء الاصطناعي للمعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة “NIST”، وإطار وأدوات AI Verify في سنغافورة، ومنصة اختبار سلامة الذكاء الاصطناعي المفتوحة من معهد سلامة الذكاء الاصطناعي في المملكة المتحدة.

ستتضمن الحوكمة الذاتية لأنظمة الذكاء الاصطناعي ضوابط تنظيمية وتقنية آلية بشكل متزايد. ويتطلب الذكاء الاصطناعي أنظمة إدارة تنظيمية قوية مع ضوابط مثل تلك الموصوفة في المعيار الدولي ISO/IEC 42001.

وتُعدُّ الضوابط التقنية مهمة بنفس القدر مثل الأنظمة الاجتماعية التقنية. ويمكن أن تساعد الأتمتة في ذلك، على سبيل المثال، من خلال الأتمتة في فرق اختبار الذكاء الاصطناعي “أسلوب منظم لاختبار نماذج الذكاء الاصطناعي لتحديد المشكلات والمساعدة في الحماية ضد السلوكيات أو النتائج الضارة”، وتحديد البيانات الوصفية، والتسجيل والمراقبة والتنبيهات.

ستكون الأتمتة ضرورية مع وصول التقنية إلى سرعات وذكاء يتطلبان ضوابط في الوقت الفعلي. علاوة على ذلك، مع تقدم المعايير المتناغمة وضوابط سلامة الذكاء الاصطناعي التقنية، ستعتمد العديد من المنظمات عليها.

سيظل التعاون بين البشر والذكاء الاصطناعي مهمًا. على سبيل المثال، قامت IBM بتنفيذ ضوابط تنظيمية من خلال مجلس أخلاقيات الذكاء الاصطناعي وبرنامج الحوكمة المتكاملة، وتقدم حلولًا لمساعدة العملاء على تنفيذ الضوابط التنظيمية والتقنية مثل watsonx.governance.

زيادة الحاجة إلى محترفي الذكاء الاصطناعي ذوي المهارات

مع استمرار سوق حوكمة الذكاء الاصطناعي في التوسع بسرعة، سيكون هناك طلب كبير على محترفي الذكاء الاصطناعي المهرة الذين يمكنهم تنفيذ الضوابط التنظيمية والتقنية المسؤولة.

ستُراوح ساحة المنافسة بين قادة التكنولوجيا الحاليين والشركات الناشئة الجديدة التي تركِّز تقريبًا بشكل حصري على حلول حوكمة الذكاء الاصطناعي مثل: إدارة مخزون الذكاء الاصطناعي، وإدارة السياسات، والتقارير.

سيتطور السوق لدعم مجالات متخصصة مثل: إدارة الحوادث، واختبار الذكاء الاصطناعي، وتقييم المطابقة، والتقارير الشفافة، والتوثيق الفني. ومع حدوث ذلك، سيتعين زيادة عدد محترفي حوكمة الذكاء الاصطناعي المدربين لدعم هذا التوجه.

سيحتاج هؤلاء المحترفون إلى تدريب لأداء المهام المحددة وفقًا لمتطلبات السوق، بما في ذلك المهام المطلوبة بموجب اللوائح. وستمارس برامج التعليم والشهادات دورًا حاسمًا. في الواقع، لقد شهدنا بالفعل ظهور خيارات جديدة للشهادات، مثل شهادة محترف حوكمة الذكاء الاصطناعي من الجمعية الدولية لمحترفي الخصوصية.

بينما ترتبط التكاليف بتدريب المحترفين وتنفيذ ممارسات أخلاقيات وحوكمة الذكاء الاصطناعي بشكل أوسع، فإن تكاليف عدم القيام بهذه الأمور يمكن أن تكون أعلى بكثير.

يمكن للمنظمات الاستفادة من نهج شامل لتقييم العائد على الاستثمار من خلال فحص العوائد التقليدية، بالإضافة إلى العوائد الناتجة عن التأثير على السمعة وإمكانية بناء قدرات تنظيمية جديدة.

يجب على القادة التأكد من أنهم ينظرون إلى حوكمة الذكاء الاصطناعي من منظور توليد القيمة، وليس فقط من منظور تجنب المخاطر.

المستقبل مفتوح وتعاوني

يغيِّر الذكاء الاصطناعي الطريقة التي يعمل بها البشر ويعيشون، موفرًا فوائد غير مسبوقة للأفراد والمنظمات والمجتمع.

يتطلب توسيع نطاق الذكاء الاصطناعي أفرادًا مهرة، وغالبًا ما يحتاج إلى الأتمتة لدعم الاعتماد المسؤول. ويمكن لهؤلاء المحترفين أيضًا دعم الحاجة المتزايدة للامتثال الفعال للوائح والحوكمة الذاتية.

بينما تجد الشركات حاليًا طرقًا جديدة ومثيرة لاستخدام الذكاء الاصطناعي، يحمل المستقبل وعودًا أكبر مع تقارب الذكاء الاصطناعي مع تقنيات أخرى مثل: الكم، والروبوتات، والتكنولوجيا الحيوية، والتكنولوجيا العصبية.

في هذا السياق، ستكون التكنولوجيا المفتوحة والتعاون مع أصحاب المصلحة المتنوعين أمرًا حاسمًا. ومع تحول الذكاء الاصطناعي للصناعات، تعد حوكمة الذكاء الاصطناعي عنصرًا ضروريًا في تحقيق القيمة الكاملة لهذه التقنية.

 المصدر: The World Economic Forum

اترك رد

Your email address will not be published.