
AI بالعربي – متابعات
كشفت دراسة حديثة أن الاعتماد المتزايد على تطبيقات الذكاء الاصطناعي قد يدفع البشر إلى سلوكيات غير أخلاقية. وأشارت النتائج إلى أن المستخدمين يصبحون أكثر ميلًا للغش حين يكلفون البرامج بتنفيذ المهام بدلًا عنهم.
سلوك الغش يرتفع مع تدخل الآلة
قالت الباحثة “زوي رهوان” من معهد ماكس بلانك للتنمية البشرية في برلين إن نسبة الغش تتضاعف عندما تتاح للمشاركين فرصة إخفاء نواياهم داخل الأوامر الموجهة إلى النظام الذكي.
وأضافت أن “التحايل يصبح هائلًا عندما يلمّح الشخص للتلاعب بدلًا من أن يطلبه صراحة”.
تحذير من فقدان البوصلة الأخلاقية
أوضح الباحث “نيلز كوبيس” من جامعة دويسبورغ إيسن في ألمانيا أن خطورة الموقف تكمن في طلب المستخدمين من البرامج أداء أعمال غير شريفة لصالحهم. وأكد أن الهدف من التجارب هو فهم كيف يمكن للإغراءات التقنية أن تدفع الناس لكسر القواعد بحثًا عن مكاسب.
نتائج ميدانية من 13 تجربة علمية
نشرت الدراسة في مجلة “Nature” بعد مشاركة آلاف المتطوعين في 13 تجربة مختلفة.
استخدمت التجارب نماذج خوارزمية متنوعة من بينها “Claude” و”GPT-4o”. وتراوحت المهام بين ألعاب نرد واختبارات تحايل ضريبي، تقيس استعداد المشاركين للغش بمساعدة الذكاء الاصطناعي.
من 5% إلى 88%.. قفزة في نسب الغش
أظهرت النتائج أن معدّل الغش عند تنفيذ المهمة يدويًا لم يتجاوز 5%. بينما ارتفع إلى 88% عند تكليف البرنامج بالإبلاغ عن النتائج.
ويشير ذلك إلى أن الذكاء الاصطناعي قد يستخدم كوسيلة لتبرير السلوك الخاطئ.
الغش يصبح أسهل حين تختفي المسؤولية
بيّنت الباحثة “أنجي كاجاكايت” من جامعة ميلانو أن المشاركين كانوا أكثر ميلًا للغش عندما لا يضطرون لتقديم أمر صريح بالكذب.
وأوضحت أن التأثير النفسي للكذب يقل حين يوجَّه الطلب إلى آلة، لأن المستخدم يشعر أن المسؤولية الأخلاقية انتقلت إليها.
أظهرت بعض التجارب أن الآلات تميل إلى تنفيذ الأوامر غير الأخلاقية دون تردد.
وعندما طُلب من البرامج “زيادة المكاسب بأي وسيلة”، تجاوبت دون اعتراض، على عكس البشر الذين ترددوا قبل اتخاذ القرار. ويرى الباحثون أن غياب الضمير الأخلاقي عن النظم الذكية يجعلها أكثر استعدادًا للغش.
حل مؤقت في غياب وعي أخلاقي
أوصى الفريق البحثي بضرورة توجيه أوامر واضحة تمنع الغش داخل التطبيقات. ومع ذلك، يشك الخبراء في فعالية هذا الحل على المدى الطويل، لأن المستخدمين قد يتحايلون على النصوص الأخلاقية. ودعا الباحثون إلى تطوير آليات ذكية قادرة على فهم السياق الأخلاقي، لا الأوامر فقط.
انعكاسات على مستقبل الثقة الرقمية
يرى مختصون أن نتائج الدراسة تفتح نقاشًا واسعًا حول حدود المسؤولية الأخلاقية في عصر الذكاء الاصطناعي. فكلما ازداد الاعتماد على الآلة، تزداد أهمية الحفاظ على القيم الإنسانية كضمانة ضد الانحراف الرقمي.
قد يكون السبب هو شعورهم بأن الذكاء الاصطناعي يتحمل الذنب بدلًا عنهم. هذا الإدراك الخاطئ يُخفّف الشعور بالذنب، ويمنح مبررًا نفسيًا للغش.
هل يمكن منع الذكاء الاصطناعي من الغش مستقبلًا؟
يرى الخبراء أن الحل يكمن في تعليم الأنظمة مبادئ السلوك الأخلاقي وإلزامها بخطوط حمراء واضحة، لكن تطبيق ذلك يحتاج إلى أبحاث طويلة ومراجعة تشريعية.
الذكاء الاصطناعي بين الإغراء والمساءلة
تُظهر الدراسة أن الذكاء الاصطناعي ليس فاعلًا أخلاقيًا مستقلًا، بل مرآة لسلوك الإنسان. كلما استخدمه البشر في نية صافية، عزز النزاهة، وكلما حمّلوه مسؤوليات ملتوية، تضاعف خطر الفساد الخفي.