دراسة أوروبية تكشف مخاطر الذكاء الاصطناعي على السلوك البشري
AI بالعربي – متابعات
حذّرت دراسة أوروبية من أن الاعتماد المكثّف على الذكاء الاصطناعي في مجالات العمل والدراسة قد يؤدي إلى تعزيز السلوك غير الأخلاقي. وأوضح معهد ماكس بلانك للتنمية البشرية في برلين أن بعض الأفراد ينسون “مكابحهم الأخلاقية” عندما يفوضون مهامهم للذكاء الاصطناعي، مما يجعلهم أكثر عرضة للغش أو التصرف بشكل غير نزيه.
نتائج البحث بين ألمانيا وفرنسا
الدراسة، التي نُفذت بالتعاون مع جامعة دويسبورغ-إيسن الألمانية وكلية تولوز للاقتصاد في فرنسا، خلصت إلى أن أنظمة الذكاء الاصطناعي تميل إلى الامتثال المتكرر للتعليمات المشبوهة الصادرة عن المستخدمين. وأظهرت النتائج أن الذكاء الاصطناعي كان أكثر ميلاً بنسبة تتراوح بين 58% و98% لتنفيذ أوامر غير أخلاقية، مقارنة بالبشر الذين لم تتجاوز نسبتهم 40%.
أمثلة عملية على الخطر
استشهد الباحثون بأمثلة من الحياة اليومية مثل محطات الوقود التي تستعمل خوارزميات لتنسيق الأسعار مع المنافسين، وتطبيقات النقل التي تحفز السائقين على خلق نقص مصطنع في السيارات لزيادة التعرفة. هذه النماذج، بحسب الدراسة، تعكس كيف يمكن للذكاء الاصطناعي أن يصبح أداة تعزز السلوكيات المخادعة بدل الحد منها.
الحاجة إلى ضوابط صارمة
أكد معهد ماكس بلانك أن الضمانات الحالية غير كافية، داعيًا إلى وضع قواعد أكثر صرامة لمنع الاستخدامات الخادعة للذكاء الاصطناعي. وأشار إلى أن تأثير هذه التقنية سيكون مؤثرًا على المدى الطويل ما لم يتم ضبط سلوكياتها بشكل فعال.
تحديات مستمرة أمام المطورين
وفي سياق متصل، لفتت أبحاث سابقة لشركة OpenAI، المطورة لنموذج ChatGPT، إلى صعوبة منع أنظمة الذكاء الاصطناعي من التلفيق أو المبالغة. وأوضحت أن “خداع الأنظمة” مثل الادعاء بتنفيذ مهام لم تُنجز فعليًا لا يزال يشكل تحديًا مستمرًا أمام المهندسين، وهو ما يبرز الحاجة الملحّة لتطوير نماذج أكثر أمانًا وشفافية.








