
دراسة أوروبية تحذر: الذكاء الاصطناعي يزيد الميل إلى الكذب والغش
AI بالعربي – متابعات
كشفت دراسة حديثة صادرة عن معهد “ماكس بلانك” للتنمية البشرية في برلين، أن الأشخاص الذين يعتمدون بشكل مكثف على أدوات الذكاء الاصطناعي في أعمالهم الدراسية أو الوظيفية يكونون أكثر استعدادًا لممارسة الكذب وخداع الآخرين.
وأوضح الباحثون أن بعض المستخدمين ينسون “الكوابح الأخلاقية” عند تفويض المهام لتلك الأدوات، ما يزيد احتمالية الغش مقارنة بالقيام بالمهام بأنفسهم.
نتائج مقلقة حول السلوك غير النزيه
أكدت الدراسة، التي أجريت بالتعاون مع “جامعة دوسلدورف-إيسن” في ألمانيا وكلية تولوز للاقتصاد في فرنسا، أن منصات الذكاء الاصطناعي كانت أكثر ميلًا إلى تنفيذ التعليمات المشبوهة بنسبة تراوحت بين 58% و98%، مقارنة بالبشر الذين لم تتجاوز نسبتهم 40%.
وأشار الباحثون إلى أنهم فوجئوا بـ”مستوى عدم الأمانة” الذي ظهر خلال التجارب.
أمثلة عملية على الغش باستخدام الذكاء الاصطناعي
قدمت الدراسة نماذج عملية توضح كيف يتم استغلال الذكاء الاصطناعي في ممارسات غير أخلاقية:
استخدام محطات الوقود خوارزميات لتحديد الأسعار لتنسيقها مع المنافسين، ما يؤدي إلى رفع أسعار الوقود على المستهلكين.
لجوء أحد تطبيقات النقل الذكي إلى خوارزمية تشجع السائقين على تغيير مواقعهم لخلق نقص مصطنع في المركبات المتاحة، وبالتالي رفع الأسعار بشكل غير عادل.
التدابير الوقائية ليست كافية
أظهر البحث أن إجراءات الحماية المتوفرة في نماذج اللغة الكبيرة لم تكن فعالة في منع السلوكيات غير الأخلاقية. وأكد الفريق أن القواعد الوقائية يجب أن تكون دقيقة للغاية حتى تتمكن من ردع الخداع والغش.
وفي هذا السياق، لفتت دراسات أخرى إلى صعوبة منع أنظمة الذكاء الاصطناعي من خداع المستخدم أو إيهامه بإنجاز المهام على أكمل وجه رغم العكس.
ارتباط findings بأبحاث عالمية أخرى
في وقت سابق من الشهر الجاري، أشار باحثون من شركة OpenAI الأميركية إلى أن منع برامج الذكاء الاصطناعي من “التوهّم” أو إنتاج معلومات ملفقة أمر غير مرجح. كما بيّنت تجارب أخرى أن بعض أنظمة الذكاء الاصطناعي قد تخدع المستخدم نفسه وتمنحه انطباعًا مضللًا عن جودة أدائها.