دراسة جديدة: الذكاء الاصطناعي يمنحنا ثقة زائفة في قدراتنا الذهنية

AI بالعربي – متابعات

أظهرت دراسة حديثة أن الاعتماد على أدوات الذكاء الاصطناعي يجعل المستخدمين أكثر ثقة في قدراتهم العقلية، حتى عندما تكون هذه الثقة غير مبررة.

أُجريت الدراسة في جامعة “آلتو” الفنلندية، ونُشرت في دورية Computers in Human Behavior، وأكدت أن استخدام الأنظمة الذكية مثل ChatGPT قد يدفع الأفراد إلى المبالغة في تقدير أدائهم المعرفي، بغض النظر عن مستوى خبرتهم في التقنية.

اختفاء “تأثير دانينغ-كروجر” في عصر الذكاء الاصطناعي

تُظهر النتائج أن “تأثير دانينغ-كروجر”، وهو المفهوم النفسي الذي يصف ميل غير الأكفاء للمبالغة في تقييم مهاراتهم، لم يعد ينطبق في حالة مستخدمي النماذج اللغوية الكبيرة.

يقول البروفيسور روبن فيلش، المشرف على الدراسة: “وجدنا أن الأشخاص الذين يعتقدون أنهم يفهمون الذكاء الاصطناعي جيدًا كانوا الأكثر ثقة في تقييم أدائهم، رغم أن هذه الثقة لم تكن دقيقة”.

وأضاف: “توقعنا أن يكون المستخدمون المتخصصون أكثر وعيًا بحدود قدراتهم، لكن المفارقة أن وعيهم التقني زاد من شعورهم الزائف بالكفاءة”.

مخاطر الثقة المفرطة

تحذّر الدراسة من أن الاعتماد المفرط على أدوات الذكاء الاصطناعي قد يؤدي إلى تراجع التفكير النقدي وفقدان مهارات التحقق المستقل من المعلومات.

ورغم أن أداء الأفراد تحسّن عند استخدام ChatGPT، فإن المشكلة تكمن في أنهم بالغوا في تقدير هذا التحسن، ما خلق فجوة بين الثقة الذاتية والأداء الحقيقي.

تقول الباحثة المشاركة دانييلا دا سيلفا فرنانديز: “الأدوات الحالية لا تشجع على التفكير التأملي أو التعلم من الأخطاء، بل تمنح المستخدمين إجابات جاهزة تقلل من وعيهم الذاتي”.

تجارب بحثية تكشف سلوك المستخدمين

شارك في الدراسة نحو 500 شخص خضعوا لاختبارات مستوحاة من “اختبار القبول في كليات الحقوق” الأميركية (LSAT).

طُلب من بعضهم استخدام أدوات الذكاء الاصطناعي لحل المسائل، بينما اعتمد الآخرون على قدراتهم الذاتية فقط.

بعد كل مهمة، طُلب من المشاركين تقييم أدائهم مع تقديم مكافآت لمن يقدّم تقديرًا دقيقًا. وأظهرت النتائج أن أغلب المستخدمين اكتفوا بطرح سؤال واحد على ChatGPT ثم قبلوا الإجابة دون مراجعتها.

يقول فيلش: “لاحظنا أن المشاركين نقلوا مسؤولية التفكير بالكامل إلى الأداة الذكية، وهو ما نسميه بالإزاحة المعرفية”.

الحاجة إلى أدوات تُحفّز التفكير

يقترح الباحثون تطوير أدوات ذكاء اصطناعي تُلزم المستخدمين بشرح منطقهم في الإجابات.

وتوضح فرنانديز: “عندما يُطلب من المستخدم تفسير إجابته، يُجبر على التفكير النقدي، ويُواجه أوهام المعرفة الزائفة، فيتفاعل بعمق أكبر مع التقنية”.

ويؤكد الفريق أن تعزيز هذا النوع من التفاعل قد يساعد على بناء علاقة أكثر وعيًا بين الإنسان والآلة، ويحد من الميل المفرط إلى الثقة الذاتية غير الواقعية.

خلاصة

تكشف الدراسة أن الذكاء الاصطناعي لا يغيّر فقط طريقة تفكيرنا، بل يعيد تشكيل نظرتنا إلى قدراتنا العقلية.

ففي الوقت الذي يساعدنا فيه ChatGPT على إنجاز المهام بسرعة ودقة، قد يجعلنا أيضًا نُخطئ في تقدير ما نستطيع فعله بأنفسنا، ما يطرح تساؤلات حول مستقبل التفكير النقدي في عصر الذكاء الاصطناعي.

  • Related Posts

    شميت: الذكاء الاصطناعي يخلق وظائف جديدة بدلًا من إلغائها

    AI بالعربي – متابعات أكد المدير التنفيذي السابق لشركة جوجل، إريك شميت، أن الذكاء الاصطناعي سيكون محركًا لخلق فرص العمل وليس سببًا في البطالة. وأوضح أن هذه التقنية قادرة على…

    تراجع زخم تطبيقات الذكاء الاصطناعي في الصين رغم اتساع قاعدة المستخدمين

    AI بالعربي – متابعات أظهرت دراسة حديثة أن سوق تطبيقات الذكاء الاصطناعي في الصين بدأ يشهد تراجعًا في الزخم، رغم ارتفاع عدد المستخدمين الإجمالي إلى أكثر من 700 مليون شخص.…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    • أكتوبر 30, 2025
    • 28 views
    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    • أكتوبر 12, 2025
    • 204 views
    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    • أكتوبر 1, 2025
    • 293 views
    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    • سبتمبر 29, 2025
    • 304 views
    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    • سبتمبر 26, 2025
    • 255 views
    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

    • سبتمبر 24, 2025
    • 285 views
    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟