الذكاء الاصطناعي يغير شكل القيادة

30

Ana Paula Assis

من أرضية المتجر إلى غرفة الاجتماعات، برز الذكاء الاصطناعي (AI) كقوة تحويلية في المشهد التجاري، مما منح المنظمات القدرة على ثورة العمليات وزيادة الإنتاجية.

تغير الحجم والنطاق لهذا التحول الجذري في معايير قادة الأعمال في عام 2024، مما يقدم فرصًا جديدة لزيادة التنافسية والنمو.

إلى جانب هذه الفرص، جلبت تعقيدات الذكاء الاصطناعي – وبشكل خاص الذكاء الاصطناعي التوليدي – تهديدات ومخاطر جديدة. يتعامل قادة الأعمال في جميع القطاعات مع مخاوف جديدة حول أمن البيانات، والخصوصية، والأخلاقيات، والمهارات؛ وهو ما يمنحهم مسؤوليات إضافية للنظر فيها.

لدراسة هذا بمزيد من التفصيل، قامت شركة IBM بإجراء دراسة بعنوان “القيادة في عصر الذكاء الاصطناعي”. شملت هذه الدراسة استطلاع آراء أكثر من 1600 من كبار التنفيذيين الأوروبيين حول كيفية تحول دور قادة الشركات بفعل ثورة الذكاء الاصطناعي، حيث يسعون لتعظيم الفرص التي يقدمها، مع التنقل أيضًا بين التهديدات المحتملة في بيئة تنظيمية وأخلاقية متطورة.

تعزيز نمو الذكاء الاصطناعي في أوروبا

مع وجود سبع من أصل عشر من أكثر الدول ابتكارًا في العالم في أوروبا، تتمتع المنطقة بموقع جيد للاستفادة من قانون الذكاء الاصطناعي الأوروبي، الذي سيتم تبنيه قريبًا، والذي يقدم أول إطار تنظيمي شامل في العالم. من المتوقع أن يجتذب هذا الثقة التنظيمية والوضوح الاستثمارات الإضافية والمشاركين الجدد، مما يعود بالفائدة على نظام الذكاء الاصطناعي في أوروبا.

في ظل هذه الخلفية المبشرة، ليس من المستغرب أن نرى أن تنفيذ الذكاء الاصطناعي التوليدي يحتل أولوية قصوى لدى الرؤساء التنفيذيين لعام 2024؛ إذ أفاد 82% من قادة الأعمال الذين شملهم الاستطلاع بأنهم قد استخدموا الذكاء الاصطناعي التوليدي أو ينوون القيام بذلك هذا العام. يدفع هذا الشعور المتزايد إلى تحسين الكفاءة من خلال أتمتة العمليات الروتينية وتحرير الموظفين للقيام بأعمال ذات قيمة أعلى، وتعزيز تجربة العملاء وتحسين النتائج.

على الرغم من هذا الحماس، فإن المخاوف المتعلقة بالأمان والخصوصية تخفف من معدل التبني. فبينما كان 88% من قادة الأعمال متحمسين للإمكانيات التي يمكن أن يقدمها الذكاء الاصطناعي في أعمالهم، لم يشعر 44% منهم بالجاهزية لنشر التكنولوجيا بعد، حيث تم تحديد الخصوصية وأمان البيانات (43%)، وتأثيرها على القوى العاملة (32%)، والآثار الأخلاقية (30%) كأهم ثلاث تحديات تواجه قادة الأعمال. بدلاً من التركيز فقط على الفوائد المالية للذكاء الاصطناعي، يُجبر قادة الأعمال الآن على معالجة التكاليف والمخاطر الاجتماعية المرتبطة به بنشاط.

عصر جديد للقيادة

تتطلب القيادة في عصر الذكاء الاصطناعي من التنفيذيين، إيجاد توازن بين معالجة الآثار الأخلاقية والأمنية للتكنولوجيا، واستغلال مزاياها التنافسية. يكمن هذا التوازن الدقيق في صميم قانون الذكاء الاصطناعي الأوروبي، الذي أيده البرلمان الأوروبي في مارس. ويهدف إلى تعزيز الابتكار والتنافسية في أوروبا، مع ضمان الشفافية والمساءلة والإشراف البشري في تطوير وتنفيذ الذكاء الاصطناعي.

يتبع القانون نهجًا قائمًا على المخاطر، حيث يحدد مستوى التنظيم المطلوب بناءً على مستوى المخاطر التي تشكلها كل حالة استخدام. ويتراوح ذلك من المحظور، الذي يشمل ممارسات مثل التقييم الاجتماعي والمخاطر العالية التي تشمل مجالات مثل البنية التحتية وتقييم الائتمان، والمخاطر المتوسطة التي تشمل الدردشة الآلية والتزييف العميق، والمخاطر المنخفضة التي تحتوي على ألعاب ممكّنة بالذكاء الاصطناعي وفلاتر الرسائل غير المرغوب فيها.

مع وضع هذه المعايير، يجب على قادة الأعمال إدراك الامتثال التنظيمي وإعداد عملياتهم وعمالهم للتغييرات القادمة. يجب عليهم إدارة المخاطر والسمعة وتأمين مستقبل شركاتهم لمزيد من الابتكار والتنظيم، الذي ستطبق بالتأكيد في السنوات القادمة.

هناك أولويتان رئيسيتان لقادة الأعمال لتحقيق ذلك. الأولى هي إنشاء استراتيجيات حوكمة الذكاء الاصطناعي الفعالة المبنية على خمسة أعمدة: القابلية للتفسير، والعدالة، والقوة، والشفافية، والخصوصية. وتهدف هذه الاستراتيجية إلى تعزيز الشفافية في استخدام البيانات، والمعاملة العادلة، والدفاع ضد الهجمات، وشفافية النظام، وحماية الخصوصية.

 

ستعمل هذه الاستراتيجيات، مدعومة بالرقابة البشرية، على التخفيف من المخاطر وضمان أن تكون أنظمة الذكاء الاصطناعي جديرة بالثقة. ويعزز هذا النهج الشامل للحوكمة تبني الذكاء الاصطناعي المسؤول، بناءً على الثقة بين المستخدمين والأطراف المعنية، مع ضمان استخدام التقنيات الذكاء الاصطناعي بطريقة أخلاقية ومسؤولة.

الإجراء الثاني، الذي هو في نفس الأهمية، هو إنشاء لجنة أخلاقيات الذكاء الاصطناعي. بينما يتطلب القانون نفسه مستوى معيًان من الامتثال الأخلاقي، يجب على الشركات استغلال هذه الفرصة لإنشاء إطاراتها الأخلاقية الخاصة.

سيوجه ذلك التنفيذ الحالي مع وضع إرشادات واضحة للابتكارات المستقبلية. على سبيل المثال، في IBM، يحدد إطارنا الأخلاقي الحالات التي نتابعها، والعملاء الذين نعمل معهم، ونهجنا الموثوق لحقوق النشر. إن إنشاء هذه الأسس مبكرًا يساعد في منع المخاطر التي قد تؤثر على السمعة أو انتهاكات القانون في المستقبل.

مسؤولية المهارات

هناك أيضًا مسؤولية واضحة لتزويد القوى العاملة بالمهارات اللازمة للتنقل بنجاح خلال تحول الذكاء الاصطناعي. وجدت دراسة حديثة أخرى أجرتها IBM حول الذكاء الاصطناعي في مكان العمل أن 87% من قادة الأعمال يتوقعون أن يحتاج ما لا يقل عن ربع قوتهم العاملة إلى إعادة تأهيل في استجابة للذكاء الاصطناعي التوليدي والأتمتة.

الأفراد الذين يجهزون أنفسهم بمهارات الذكاء الاصطناعي سيتمتعون بميزة كبيرة في الاقتصاد الرقمي وسوق العمل، مقارنة بأولئك الذين لا يفعلون ذلك. تقع على عاتق المنظمات مسؤولية مساعدة موظفيها على تحسين مهاراتهم، أو إعادة تأهيلهم للتكيف مع هذا النظام البيئي المتغير.

تأخذ الشركات هذه المسؤولية على محمل الجد، حيث صرح 95% من التنفيذيين بأنهم يتخذون بالفعل خطوات لضمان امتلاكهم المهارات الصحيحة للذكاء الاصطناعي في منظماتهم، و44% يعملون بنشاط على تحسين مهاراتهم التكنولوجية. يأتي الحافز من منظور تنافسي واجتماعي، مما يضمن عدم استبعاد أجزاء كبيرة من القوى العاملة من المشاركة والاستفادة من الاقتصاد الرقمي المزدهر.

في ضوء التطورات التشريعية الحالية، يجب على الرؤساء التنفيذيين في أوروبا وكبار قادة الأعمال أن يتعاملوا مع مجال الذكاء الاصطناعي بثقة وانفتاح، وأن يدمجوا مبادئ الحوكمة الجيدة في تطويره واعتماده، وأن يعززوا الضوابط الأخلاقية وبناء القدرة على التكيف في جميع أنحاء فرق العمل. وتتطلب هذه المرحلة الجديدة من القيادة، الثقة والشفافية من الأعلى إلى الأسفل، وهو ما سيكون عنصرًا حاسمًا لتحقيق النمو والعائد على الاستثمار.

 

المصدر: The World Economic Forum

 

اترك رد

Your email address will not be published.