كيف تستخدم الذكاء الاصطناعي التوليدي بأمان؟

24

AI بالعربي – متابعات

قد يكون الذكاء الاصطناعي التوليدي أداة مذهلة يمكن أن تُحدث ثورة كبيرة في عالمنا اليوم، ولكن إذا وُضعت هذه الأداة في يد شخص لا يعرف كيف يستخدمها فيمكن أن تكون لها نتائج كارثية على العمل.

ويمكن التدليل على ذلك بحادثة محامي نيويورك ستيفن شوارتز، الذي أصبح مثالًا حيًا على مخاطر الذكاء الاصطناعي عندما استخدم روبوت الدردشة شات جي بي تي، ظنًا منه أنه “محرك بحث فائق”، للعثور على حالات للاستشهاد بها في مذكرة قانونية، وفقًا لموقع أرقام.

عندما طلب أحد القضاة من شوارتز نسخًا من القضايا المذكورة في المذكرة، اكتشف المحامي أن القضايا لم تكن حقيقية – فقد تم تلفيقها بواسطة روبوت الدردشة.

في حين أن روبوتات مثل شات جي بي تي يمكن أن توفر وقت الشركة في المهام التي كان يمكن للبشر فقط القيام بها في السابق، فمن المهم عدم عرض التكنولوجيا كحل سحري، حيث إن الإشراف البشري مطلوب دائمًا تقريبًا.

3 نصائح حول كيفية التعامل مع الذكاء الاصطناعي التوليدي دون تعريض الشركة للخطر

1- التأكّد من أنه يمكنك التحكم بزمام الأمور

– في شهر مايو الماضي، اضطرت الجمعية الوطنية الأمريكية لاضطرابات الأكل إلى تعليق روبوت الدردشة الخاص بها، تيسا، والذي تم تصميمه لمساعدة المستخدمين على خلق صورة إيجابية لأجسامهم.

– لم يتم بناء النسخة الأولية من تيسا بواسطة الذكاء الاصطناعي التوليدي ولكن بدلا من ذلك تم تحديد مجموعة من الردود المكتوبة مسبقًا.

– عمل روبوت الدردشة دون مشاكل لمدة عام حتى سمح البائع الذي بنى الروبوت بتوليد استجاباته الخاصة باستخدام الذكاء الاصطناعي التوليدي.

– سرعان ما بدأت تيسا في إنتاج استجابات إشكالية للغاية، مثل اقتراح أن يمارس الأشخاص الذين يعانون من اضطرابات الأكل الرياضة أو اتباع النظام الغذائي لفقدان الوزن.

– هذا هو المثال الذي يحتاج فيه تطبيق مدعوم من الذكاء الاصطناعي التوليدي إلى عناصر تحكم مدمجة حتى يتمكن البشر دائمًا من التدخل وتدارك الأخطاء.

2- ثق به ولكن تحقق منه دائمًا

– كشفت شركة سيسكو لتأمين الشبكات (Cisco Security)، وذراع الأمن السيبراني لعملاق الاتصالات الرقمية، النقاب مؤخرًا عن أداة جديدة تعمل بنظام الذكاء الاصطناعي تسمى (Policy Assistant).

– تسمح هذه الاداة لمسؤولي الأمن وتكنولوجيا المعلومات بإجراء تغييرات على سياسات أمان الشبكة باستخدام اللغة الطبيعية.

– على سبيل المثال، إذا تم تعيين موظف جديد، فيمكن للمسؤول أن يطلب من مساعد الذكاء الاصطناعي منح الموظف الجديد جميع الأذونات المرتبطة بعنوانه الجديد، دون الحاجة إلى التفاعل مع نظام إدارة معقد.

– بعد تقديم الطلب، يطلب النظام من المسؤول التأكد من أن المعلومات التي يتم إدخالها هي بالضبط المطلوبة.

– من المحتمل أن يعمل التطبيق بشكل جيد بما فيه الكفاية دون خطوة التحقق الإضافية هذه، ولكن من خلال طلبها، يمكن للمشرفين توفير الوقت والتأكد من عدم حدوث أخطاء.

3- لا تمنح الخوارزميات الاستقلالية إلا في المواقف منخفضة المخاطر

– في حين أن العديد من تطبيقات الذكاء الاصطناعي تتطلب تفاعلاً بشرياً (Human-in-the-loop)، إلا أن هناك بعض التطبيقات التي يمكن أن تعمل بمفردها.

– على سبيل المثال، تقوم محركات التوصيات التي تستخدمها شركات مثل نتفليكس وأمازون بتحليل سجل المشاهدة والشراء لتحديد المحتوى والمنتجات الأخرى التي قد تعجبك.

– لا تتم مراقبة هذه المحركات باستخدام نظام التفاعل البشري لأن السيناريو الأسوأ هو أن التطبيق يوصي بالمنتجات التي لا يريدها المستخدمون.

– وعندما يحدث ذلك، ستتيح لك العديد من التطبيقات الإبلاغ عن محتوى غير لائق أو غير مرغوب فيه، بحيث لا تعرض عليك اقتراحات مماثلة في المستقبل.

اترك رد

Your email address will not be published.