دراسة تكشف إمكانية خداع روبوتات الذكاء الاصطناعي للقيام بأعمال تخريبية
AI بالعربي – متابعات
انتشرت نماذج اللغة الكبيرة “LLM” في السنوات السابقة، ولكن أظهر باحثون طرقًا عديدة لخداعها بهدف إنشاء مخرجات شاذة مثل النكات المحرضة على الكراهية والبرمجيات الخبيثة ورسائل البريد الإلكتروني الاحتيالية والمعلومات الشخصية للمستخدمين، وفقًا لموقع “وايرد”.
ويبدو أن السلوك الشاذ لروبوتات الذكاء الاصطناعي يمكن أن يخرج إلى العالم المادي، إذ يمكن اختراق الروبوتات المدعومة بنماذج اللغة الكبيرة “LLM” وتوجيهها للقيام بأعمال تخريبية.
وتمكن باحثون من جامعة بنسلفانيا من إقناع سيارة ذاتية القيادة بتجاهل علامات التوقف وحتى القيادة من فوق جسر، كما جعلوا روبوتا يسير على عجلات يجد أفضل مكان لزرع قنبلة، وأجبروا روبوتًا رباعي الأرجل على التجسس على الناس ودخول المناطق المحظورة.