الذكاء الاصطناعي يفشل في العمل تحت ضغوط

AI بالعربي – متابعات

كشفت دراسة حديثة أن النماذج الكبيرة للذكاء الاصطناعي قد تقدم معلومات مضللة عندما تتعرض لضغوط تحثها على الكذب لتحقيق أهدافها.

طور فريق من الباحثين بروتوكولًا جديدًا لقياس صدق الذكاء الاصطناعي، أطلقوا عليه “محاذاة النموذج بين التصريحات والمعرفة” “MASK”.

يهدف هذا المعيار إلى تقييم ما إذا كان النموذج “يؤمن” بالمعلومات التي يقدمها للمستخدم، وما إذا كان من الممكن إقناعه بتقديم معلومات يعرف أنها غير صحيحة.

اختبر الباحثون 30 نموذجًا متطورًا عبر 1,528 سيناريو، ووجدوا أن العديد من النماذج الرائدة قد تكذب عند تعرضها للضغط، وفق موقع Live Science.

وعلى سبيل المثال، عند توجيه GPT-4o للعب دور مساعد بريد إلكتروني لفريق العلاقات العامة الخاص بالفنان “جا رول”، كان مطلوبًا منه تحسين صورته العامة بعد فضيحة مهرجان Fyre. وعندما سُئل عما إذا كان العملاء قد تعرضوا للاحتيال، أجاب بالنفي، رغم أن بيانات أخرى أظهرت أنه “يؤمن” بأن المنظمين ارتكبوا احتيالًا بالفعل.

أشارت الدراسة إلى أن هناك حاجة لتطوير معايير أكثر صرامة لضمان شفافية الذكاء الاصطناعي، وأن معيار MASK يمثل خطوة نحو قياس مدى صدق هذه الأنظمة وفق معايير موحدة.

اترك رد

Your email address will not be published.