AI بالعربي – متابعات
أظهرت دراسة حديثة أن الاعتماد على أدوات الذكاء الاصطناعي يجعل المستخدمين أكثر ثقة في قدراتهم العقلية، حتى عندما تكون هذه الثقة غير مبررة.
أُجريت الدراسة في جامعة “آلتو” الفنلندية، ونُشرت في دورية Computers in Human Behavior، وأكدت أن استخدام الأنظمة الذكية مثل ChatGPT قد يدفع الأفراد إلى المبالغة في تقدير أدائهم المعرفي، بغض النظر عن مستوى خبرتهم في التقنية.
اختفاء “تأثير دانينغ-كروجر” في عصر الذكاء الاصطناعي
تُظهر النتائج أن “تأثير دانينغ-كروجر”، وهو المفهوم النفسي الذي يصف ميل غير الأكفاء للمبالغة في تقييم مهاراتهم، لم يعد ينطبق في حالة مستخدمي النماذج اللغوية الكبيرة.
يقول البروفيسور روبن فيلش، المشرف على الدراسة: “وجدنا أن الأشخاص الذين يعتقدون أنهم يفهمون الذكاء الاصطناعي جيدًا كانوا الأكثر ثقة في تقييم أدائهم، رغم أن هذه الثقة لم تكن دقيقة”.
وأضاف: “توقعنا أن يكون المستخدمون المتخصصون أكثر وعيًا بحدود قدراتهم، لكن المفارقة أن وعيهم التقني زاد من شعورهم الزائف بالكفاءة”.
مخاطر الثقة المفرطة
تحذّر الدراسة من أن الاعتماد المفرط على أدوات الذكاء الاصطناعي قد يؤدي إلى تراجع التفكير النقدي وفقدان مهارات التحقق المستقل من المعلومات.
ورغم أن أداء الأفراد تحسّن عند استخدام ChatGPT، فإن المشكلة تكمن في أنهم بالغوا في تقدير هذا التحسن، ما خلق فجوة بين الثقة الذاتية والأداء الحقيقي.
تقول الباحثة المشاركة دانييلا دا سيلفا فرنانديز: “الأدوات الحالية لا تشجع على التفكير التأملي أو التعلم من الأخطاء، بل تمنح المستخدمين إجابات جاهزة تقلل من وعيهم الذاتي”.
تجارب بحثية تكشف سلوك المستخدمين
شارك في الدراسة نحو 500 شخص خضعوا لاختبارات مستوحاة من “اختبار القبول في كليات الحقوق” الأميركية (LSAT).
طُلب من بعضهم استخدام أدوات الذكاء الاصطناعي لحل المسائل، بينما اعتمد الآخرون على قدراتهم الذاتية فقط.
بعد كل مهمة، طُلب من المشاركين تقييم أدائهم مع تقديم مكافآت لمن يقدّم تقديرًا دقيقًا. وأظهرت النتائج أن أغلب المستخدمين اكتفوا بطرح سؤال واحد على ChatGPT ثم قبلوا الإجابة دون مراجعتها.
يقول فيلش: “لاحظنا أن المشاركين نقلوا مسؤولية التفكير بالكامل إلى الأداة الذكية، وهو ما نسميه بالإزاحة المعرفية”.
الحاجة إلى أدوات تُحفّز التفكير
يقترح الباحثون تطوير أدوات ذكاء اصطناعي تُلزم المستخدمين بشرح منطقهم في الإجابات.
وتوضح فرنانديز: “عندما يُطلب من المستخدم تفسير إجابته، يُجبر على التفكير النقدي، ويُواجه أوهام المعرفة الزائفة، فيتفاعل بعمق أكبر مع التقنية”.
ويؤكد الفريق أن تعزيز هذا النوع من التفاعل قد يساعد على بناء علاقة أكثر وعيًا بين الإنسان والآلة، ويحد من الميل المفرط إلى الثقة الذاتية غير الواقعية.
خلاصة
تكشف الدراسة أن الذكاء الاصطناعي لا يغيّر فقط طريقة تفكيرنا، بل يعيد تشكيل نظرتنا إلى قدراتنا العقلية.
ففي الوقت الذي يساعدنا فيه ChatGPT على إنجاز المهام بسرعة ودقة، قد يجعلنا أيضًا نُخطئ في تقدير ما نستطيع فعله بأنفسنا، ما يطرح تساؤلات حول مستقبل التفكير النقدي في عصر الذكاء الاصطناعي.








