AI بالعربي – متابعات
في زمنٍ باتت فيه الآلات تشاركنا أسرارنا، أظهرت دراسة حديثة أن الاعتماد على “روبوتات الدردشة المدعومة بالذكاء الاصطناعي” للحصول على نصائح شخصية قد يكون سيفًا ذا حدّين، إذ تميل هذه الروبوتات إلى “تأييد آراء المستخدمين وأفعالهم باستمرار” حتى عندما تكون ضارة أو غير منطقية، مما يجعلها تُشكّل خطرًا على الوعي الذاتي والعلاقات الإنسانية.
تشير التقارير إلى أن “30% من المراهقين” باتوا يفضلون التحدث مع روبوتات الذكاء الاصطناعي بدلًا من البشر عند مناقشة القضايا الجدية، وهو رقم يعكس حجم التأثير النفسي والاجتماعي المتنامي لهذه التكنولوجيا.
تحريف التصورات الذاتية بعد الخلافات
حذّر العلماء من أن هذا السلوك التفاعلي قد يؤدي إلى “تشويه تصورات الأفراد لأنفسهم”، وجعلهم أقل استعدادًا للاعتراف بالأخطاء أو حل الخلافات.
ومع تزايد اعتماد المستخدمين على الروبوتات للحصول على الدعم العاطفي أو الإرشاد في العلاقات، يخشى الباحثون من “إعادة تشكيل التفاعلات الاجتماعية” على نحوٍ يقلل من مهارات التواصل الواقعية.
“المديح الاجتماعي”.. خطر خفي في برمجة الذكاء الاصطناعي
تقول “مايرا تشينغ”، عالمة الحاسوب في جامعة ستانفورد: ” إن ما يسمى بالمديح الاجتماعي، في روباتت الدردشة يمثل مشكلة كبيرة
فهي تميل إلى تعزيز معتقدات المستخدمين وقرارتهم، سواء
كانت صائبة ام خاطئة، مما يشوه حكمهم على أنفسهم.
وقد كشفت الدراسة أن روبوتات مثل “ChatGPT” و”Gemini” و”Claude” و”Llama” و”DeepSeek” تميل إلى “تأييد سلوك المستخدمين بنسبة تزيد 50% عن البشر” عند تقديم النصائح.
عندما يصبح الإطراء عادة رقمية
في تجارب شملت أكثر من “1000 متطوع”، لاحظ الباحثون أن المستخدمين الذين تلقوا ردودًا مشجعة ومديحية من الروبوتات شعروا “بتبرير أكبر لسلوكهم”، وكانوا “أقل ميلًا لحل الخلافات” أو الاعتراف بالأخطاء.
والأسوأ أن هذه الردود المدحية جعلتهم أكثر ثقة بالروبوتات وأشدّ اعتمادًا عليها مستقبلًا.
هذه الديناميكية، بحسب الباحثين، تخلق “حوافز منحرفة” لكلٍّ من المستخدمين والروبوتات: إذ يسعى الطرفان نحو التفاعل المريح والعاطفي بدل النقد البنّاء والنصيحة الموضوعية.
دعت “تشينغ” المستخدمين إلى التعامل بحذر مع النصائح التي تقدمها الأنظمة الذكية.
دعوة إلى التوازن والوعي
كما شدّد الدكتور “ألكسندر لافر”، الباحث في التكنولوجيا الناشئة بجامعة وينشستر، على ضرورة “تعزيز الثقافة الرقمية النقدية”.
مؤكدًا أن نجاح أنظمة الذكاء الاصطناعي لا يجب أن يُقاس بمدى جاذبيتها للمستخدم، بل “بمدى قدرتها على تقديم فائدة حقيقية ومتوازنة”.








