الذكاء الاصطناعي المسؤول: 6 خطوات يجب على الشركات اتخاذها

16

Prasad Sankaran

من الواضح أن الثقة ستكون في صميم تبني الذكاء الاصطناعي بنجاح. ستساعد الثقة على التوسع وتحقيق إمكانيات الذكاء الاصطناعي التوليدي، وهي التقنية الجديدة الأكثر ثورية في جيل كامل. عندما يواجه المستهلكون هذه الحلول الجديدة المزعزعة التي تبدو وكأنها سحر، فإنهم يكونون بشكل غريزي متشككين؛ لذا يجب كسب الثقة منذ البداية.

خلق الذكاء الاصطناعي الموثوق

نظرًا لأن الثقة عامل حاسم، دعونا نتناول ما هي الثقة وكيف يمكن الحصول عليها. في عام 1995، نشر أساتذة من جامعة نوتردام وجامعة بوردو نموذجًا للثقة تم تبنيه على نطاق واسع وهو قابل للتطبيق بشكل كبير على الخدمات المدعومة بالذكاء الاصطناعي. يقترح النموذج أن الثقة تُستمد من إدراك القدرة، وحسن النية، والنزاهة. ما سمعناه في دافوس يتماشى مع هذا النموذج ويساعد في فهم التحديات التي تواجهنا.

أولاً، تعتمد الثقة في أنظمة الذكاء الاصطناعي على قدرتها على حل المشكلات في العالم الحقيقي. لا يمكننا أن نفترض ببساطة أن القدرة على أن تكون مفيدة في سيناريو العالم الحقيقي أمر مضمون. لقد رأيت عروضًا مذهلة للذكاء الاصطناعي التوليدي فقط لأشعر ببعض الإحباط عند تجربة هذه الأدوات في العالم الحقيقي.

الحلول القائمة على الذكاء الاصطناعي التي تعد بأكثر مما يمكنها تقديمه وتفشل في الوفاء بتلك الوعود ستتسبب في مشكلات ثقة كبيرة على المدى الطويل. لقد رأينا هذا يحدث مع برامج الدردشة والمساعدين الصوتيين الذين يعدون براحة في المحادثة لكن يقدمون فهمًا محدودًا وقائمة قرارات ثابتة. شعر المستخدمون بخيبة أمل، ولم تتحقق الوعود التي قدمتها هذه التقنيات.

لجعل أنظمة الذكاء الاصطناعي مفيدة، يجب أن نوجهها نحو المشكلات الصحيحة، وندعمها ببيانات ذات صلة وعالية الجودة، وندمجها بسلاسة في تجارب المستخدم وسير العمل. وأهم من ذلك، هناك حاجة إلى مراقبة واختبار مستمرين لضمان أن تقدم أنظمة الذكاء الاصطناعي نتائج ذات صلة وعالية الجودة بشكل مستمر.

المجال الثاني الذي يعزز الثقة هو فكرة حسن النية. يجب أن يكون لنماذج الذكاء الاصطناعي تأثير إيجابي على المجتمع والأعمال والأفراد، وإلا فسيتم رفضها.
هناك تحديان أساسيان:

تنفيذ الأثر الإيجابي: يجب أن نضمن أن المؤسسات تطبق الذكاء الاصطناعي بشكل مسؤول وتعالج الآثار السلبية بشكل كامل. يجب عليها منع حالات الاستخدام غير المقبولة، واحترام حقوق الملكية الفكرية، وضمان المعاملة العادلة، وتجنب الأضرار البيئية، وتمكين العمال المتضررين من الوصول إلى فرص عمل بديلة.

منع الاستخدام الضار: لا يكفي أن تطبق المؤسسات المسؤولة الذكاء الاصطناعي بنية حسنة؛ يجب علينا أيضًا الحماية من الاستخدام الضار. يجب على الكيانات الحكومية والتنظيمية اتخاذ خطوات لدعم مقدمي الخدمات الشرعيين والقضاء على الجهات الفاعلة السيئة. تشمل القضايا الأساسية التحقق من مقدمي الخدمات، والتحقق من المحتوى الحقيقي، ومنع الهجمات الجديدة المدعومة بالذكاء الاصطناعي، ومراقبة قنوات التوزيع الرقمية.

وأخيرًا، تخلق النزاهة الثقة عندما يدرك المستخدمون أن خدماتهم آمنة، وخصوصية، ومرنة، ومُحكمة الإدارة.

لقد أمضى التقنيون والمؤسسات عقودًا في بناء بنى تحتية على نطاق الويب وهياكل سحابية أصلية تدعم الخدمات الرقمية الحيوية. يجب توسيع وتكييف الممارسات التي تسمح للعالم بالاعتماد على هذه الخدمات لتشمل قدرات الذكاء الاصطناعي بشفافية، وبطريقة مقنعة لمجتمعات المستخدمين.

الطريقة الوحيدة لتحقيق هذه النزاهة المطلوبة هي تبني منصات تدمج الشفافية، والأداء، والأمان، والخصوصية، والجودة. ثم إن بناء حالات استخدام موازية تعتمد على أهداف محلية وبيانات معزولة هو طريق خطير سيؤدي إلى زيادة التكلفة والمخاطر، ونتائج ضعيفة، وفي النهاية انهيار نزاهة النظام.

تحدي تنفيذ الذكاء الاصطناعي المسؤول

في حين أنه من الجيد أن تكون لدينا وضوح بشأن الأهداف، لا يمكن إنكار أننا نواجه تحديًا مرعبًا. سيتطلب التعامل مع الذكاء الاصطناعي المسؤول التعاون بين القطاعين العام والخاص عبر مختلف القضايا. كما سيتطلب اعتماد ممارسات جديدة داخل المؤسسات لتصميم أنظمة الذكاء الاصطناعي وتطويرها وضمانها وتشغيلها بطريقة مسؤولة.

ليس لدينا رفاهية انتظار شخص آخر لحل هذه التحديات. مهما كان دورك أو صناعتك، يمكنك أن تكون متأكدًا من أن المنافسين يتقدمون في أداءات الذكاء الاصطناعي، وأن الموظفين يستخدمون حلولًا غير موثوقة بشكل سري، وأن الجهات الفاعلة السيئة تخترع طرقًا جديدة للهجوم واستغلال الثغرات.

بناءً على تجربتنا في المساعدة على بناء الذكاء الاصطناعي المسؤول على مستوى المؤسسات في مئات المنظمات ونواة أعمالنا الخاصة، نعتقد أن المؤسسات يجب أن تتخذ إجراءات في ستة مجالات:

1- مواءمة القيادة مع رؤية متسقة ومساءلة

يعد الذكاء الاصطناعي قضية على مستوى الرئيس التنفيذي تتطلب التعاون عبر جميع وظائف المنظمة. يجب على فرق القيادة مناقشة القضايا المحيطة بالذكاء الاصطناعي المسؤول، ثم الاتفاق على مجالات الفرص، ومناهج الحوكمة، والاستجابات للتهديدات، والمساءلة عن الإجراءات.

2- معالجة العوامل البشرية من البداية

تشير أبحاث شركة Cognizant القادمة إلى أن عدم الثقة من الموظفين والمستهلكين، من بين أمور أخرى، يمكن أن يعيق نمو الذكاء الاصطناعي التوليدي. وبينما يعتقد الناس أن الذكاء الاصطناعي التوليدي سيبسط التفاعلات التكنولوجية ويزيد من أرباح الشركات، فإنهم يخشون أنه لن يفيد العمال أو المجتمع، مما يسبب عدم الأمان الوظيفي.

يجب على الشركات معالجة هذه المخاوف بشفافية واتصال مباشر. هذا النهج يؤتي ثماره، حيث تظهر الدراسة أن الحماس للذكاء الاصطناعي التوليدي يزداد مع زيادة الفهم.

3- إدارة المعايير والمخاطر

إنشاء إطار عمل للحوكمة والمخاطر والامتثال لتوحيد الممارسات الجيدة ومراقبة الأنشطة المتعلقة بالذكاء الاصطناعي بشكل منهجي. ضمن هذا الإطار، من الضروري النظر في النطاق الكامل للنظام المدعوم بالذكاء الاصطناعي، بما في ذلك بيانات التدريب، ونماذج الذكاء الاصطناعي، وحالات استخدام التطبيقات، وتأثيرات الأشخاص، والأمان.

4- إنشاء نقطة محورية للخبرة

لا يمكن إدارة الذكاء الاصطناعي المسؤول دون شفافية مركزية وإشراف على الأنشطة. من خلال إنشاء مركز تميز للذكاء الاصطناعي، يمكن للشركات الاستفادة القصوى من الخبرات النادرة وتقديم رؤية متماسكة للقيادة، والجهات التنظيمية، والشركاء، وفرق التطوير، والموظفين.

5- بناء القدرات والوعي

يتطلب الحفاظ على ممارسات الذكاء الاصطناعي المسؤول أن يفهم الجميع في المؤسسة قدرات التكنولوجيا، وقيودها، ومخاطرها. ويجب تثقيف جميع الموظفين حول الذكاء الاصطناعي المسؤول، ورؤية المنظمة، وعمليات الحوكمة. بعد ذلك، ستحتاج مجموعات محددة إلى المزيد من الدعم من خلال التدريب والإرشاد لتؤدي دورًا عمليًا أكبر في تطوير حلول الذكاء الاصطناعي واستخدامها.

6- تقنين الممارسات الجيدة في المنصات

الذكاء الاصطناعي هو تكنولوجيا شاملة وأفقية ستؤثر تقريبًا في كل دور وظيفي. لكي تتمكن الفرق من بناء حلول موثوقة بسرعة، ستحتاج إلى البيانات والأدوات اللازمة للعمل. ويمكن للمنصات الخاصة بالذكاء الاصطناعي جعل الأصول القابلة للمشاركة متاحة لإعادة الاستخدام، وضمان وجود إدارة فعالة للمخاطر، وتوفير الشفافية لجميع أصحاب المصلحة.

من خلال معالجة هذه النقاط الست، تكون المؤسسات مهيأة لتفعيل موقفها بشأن الذكاء الاصطناعي المسؤول، وتنفيذ وإدارة أنشطة الذكاء الاصطناعي بفعالية. نحن نؤمن بأن كل مؤسسة تتبنى الذكاء الاصطناعي، أو تتعرض لتهديدات مدعومة بالذكاء الاصطناعي، يجب أن تطبق الذكاء الاصطناعي المسؤول ويجب أن تفعل ذلك الآن.

المصدر: https://www.weforum.org/agenda/2024/06/responsible-ai-businesses-genai-steps/

اترك رد

Your email address will not be published.