اختراق نفسي لحواجز الدردشة.. دراسة تكشف قابلية روبوتات الذكاء الاصطناعي للإقناع والضغط الجماعي
AI بالعربي – متابعات
أظهرت دراسة حديثة صادرة عن جامعة بنسلفانيا نتائج مثيرة للجدل حول قدرة أساليب التأثير النفسي التقليدية على اختراق أنظمة المحادثة المبنية على الذكاء الاصطناعي، مثل نموذج GPT-4o Mini.
الدراسة بينت أن هذه النماذج ليست منيعة تمامًا أمام استراتيجيات بشرية بسيطة من قبيل الإطراء، الالتزام التدريجي، شهادات الآخرين، أو استدعاء السلطة، مما يثير مخاوف جدية بشأن سلامة الاستخدام مع تزايد الاعتماد عليها عالميًا.
تجارب عملية ترفع معدلات الامتثال
الباحثون اعتمدوا على أسلوب “تهيئة” الحوار، حيث تبدأ المحادثة بطلبات بريئة وعادية، قبل الانتقال تدريجيًا إلى أسئلة أكثر حساسية أو محظورة عادةً. هذه الاستراتيجية أدت إلى رفع معدلات الامتثال بشكل ملحوظ، إذ تمكن الفريق من دفع الروبوت للرد على محتوى يُفترض أن تمنعه آلياته الداخلية. النتيجة اعتُبرت مؤشرًا على هشاشة الحواجز السلوكية التي تبنيها الشركات لحماية النماذج من الاستغلال.
الإطراء والسلطة أدوات فعّالة للاختراق
من أبرز النتائج أن الإطراء المباشر على أداء الروبوت ساعد على كسر التحفظات في الرد، بينما عززت شهادات الآخرين المصطنعة من درجة الامتثال. أما استدعاء السلطة، مثل الادعاء بأن الطلب صادر عن شخصية مرجعية أو جهة خبيرة، فقد أظهر فعالية مضاعفة في تجاوز القيود. هذه المعطيات تعكس مدى قوة أساليب التأثير البشري التقليدية حتى عند التعامل مع أنظمة ذكية مصممة للحماية.
مخاوف على سلامة أنظمة المحادثة
المخاوف لا تتعلق فقط بضعف الحواجز الآلية، بل أيضًا بتأثير ذلك على سلامة المستخدمين مع انتشار روبوتات المحادثة على نطاق جماهيري. إذا كان بالإمكان إقناع الروبوت بالاستجابة لمحتوى محظور أو غير آمن، فإن ذلك قد يفتح الباب أمام مخاطر تتعلق بالمعلومات المضللة أو إساءة الاستخدام. الخبراء يرون أن الدراسة تمثل جرس إنذار للشركات لتطوير استراتيجيات أكثر صرامة لمقاومة أساليب الإقناع النفسي.
دعوة لمراجعة تصميم الضوابط
مع تصاعد الجدل، أوصى الباحثون بضرورة إعادة النظر في تصميم الضوابط التي تحكم استجابات النماذج. التوصيات شملت تعزيز أنظمة كشف الأنماط التلاعبية، وإضافة طبقات حماية نفسية-سلوكية قادرة على مقاومة التكتيكات البشرية المعروفة. كما شددوا على أن أدوات الإقناع التقليدية التي طالما استخدمها البشر في التعامل مع بعضهم ما زالت قادرة على إرباك الآليات الآلية الأكثر تطورًا.
تأثير مباشر على مستقبل الذكاء الاصطناعي
تعكس الدراسة تحديًا متصاعدًا في مسيرة تطوير الذكاء الاصطناعي، حيث لم تعد المسألة مرتبطة فقط بالدقة أو كفاءة الأداء، بل بمدى قدرة هذه الأنظمة على الصمود أمام الضغوط والتأثير النفسي. من المتوقع أن تدفع هذه النتائج الشركات الكبرى إلى إعادة تقييم أولوياتها في بناء نماذج أكثر أمانًا، مع اعتماد ممارسات تضمن التوازن بين سهولة التفاعل وحماية المستخدم.