AI بالعربي – متابعات
حذّر خبراء علم النفس من أن الاستخدام المكثّف لأدوات الذكاء الاصطناعي التفاعلية قد يُفضي إلى نشوء حالة نفسيّة غريبة ومثيرة للقلق. وقد ربطوا هذا الخطر بشكل خاص بانتشار برامج المحادثة مثل “ChatGPT” و”Claude” و”Replika”، التي يلجأ إليها بعض المستخدمين طلبًا للصداقة أو الدعم العاطفي أو حتى العلاج النفسي.
الاعتماد العاطفي على “رفقاء” رقميّين
أكد الخبراء أن هذا النوع من الإدمان ليس مجرد ترفيهٍ أو عادةٍ بسيطةٍ، بل قد يُحدِث تغيّراتٍ فعليّةً وعميقةً في سلوك المستخدم.
ويُبرزون أن الاعتماد العاطفي أو الذهني على “الرفقاء الرقميّين” ينطوي على مخاطرَ حقيقيةٍ. وشرحوا أن خطرًا كبيرًا يكمن في ما يُعرف بـ”ذهان الذكاء الاصطناعي”، وهي حالةٌ يبدأ فيها المستخدم بتصديق أوهامه نتيجة تفاعل برامج المحادثة معه بطريقةٍ تُعزّز هذه الأفكار بدلاً من تصحيحها.
تجربةٌ فعليةٌ وتداعياتُها
روت “جيسيكا جانسن” (35 سنة) من بلجيكا تجربتَها مع “ChatGPT” أثناء فترة استعدادها لزفافها.
ومع تزايد الضغط النفسي، انتقلت من استخدام الأداةِ عدّةَ مرّاتٍ أسبوعيًّا إلى الاستخدام اليوميّ المكثّف، وبعد أسبوعٍ واحدٍ فقط دخلت إلى قسم الطبّ النفسيّ في المستشفى.
وفيما بعد اكتشف الأطباء أن لديها اضطرابًا ثنائيًّا للقطب غير مُشخّص، وقد تسبّب هذا الاضطراب في نوبةِ هوسٍ تفاقمت بفعل الاستخدام المفرط للذكاء الاصطناعي، مما أدّى إلى “ذهانٍ كاملِ النموّ”.
قالت “جيسيكا” إنّها خلال أزمتها لم تُدرك أن “ChatGPT” كان يُفاقم حالتها، وأضافت أن الأداة كانت “تشاركني هلوساتي وتُغذّي أوهامي”، مما جعلها تغوص أعمق وتعتقد بأنّها مصابةٌ بالتوحّد.
لماذا تصبح أدواتُ المحادثةِ خطيرةً؟
الطبيعةُ المصمّمة لهذه الأنظمة تجعلها تردّ بأسلوبٍ إيجابيٍّ ومتعاطفٍ مع المستخدم، دون رفضٍ أو نقدٍ مباشرٍ، ما يجعلها بيئةً يُحتمل أن تكون خطرةً، وبالأخصّ للأشخاص الذين يعانون من هشاشةٍ عاطفيةٍ أو عزلةٍ اجتماعيةٍ.
الدراساتُ النفسيةُ الحديثةُ تشير إلى أن المستخدمين ذوي تقدير الذات المنخفض أو أولئك الذين يعانون من قلقٍ اجتماعيٍّ أو الهروب من الواقع هم الأكثرَ عُرضةً لتطوير سلوكٍ مَشكوكٍ فيه لهذه الأدوات.
الأدبياتُ الحديثةُ تسجّل أن الاعتمادَ الزائد على الذكاء الاصطناعي — أو ما يُسمّى “AI dependence” — قد يُؤدّي إلى مشاكلَ في العلاقات الواقعية، واضطراباتٍ نفسيّةٍ، واضطراباتٍ في النوم، وضعفٍ في الأداء في المهامّ اليومية.
ورغم أنّ مفهوم “إدمانِ دردشةِ الذكاء الاصطناعيّ” لم يُدرَج بعد في الدلائل التشخيصية الرئيسة، إلا أن الأبحاثَ تُحذّر من أن الوضع قد يكون حقيقيًّا ويحتاج إلى متابعةٍ وتنظيمٍ.
توصياتٌ للحدّ من المخاطرِ
الاعترافُ بأنّ أدواتٍ مثل “ChatGPT” ليست بديلًا عن العلاج النفسيّ أو الدعم الإنسانيّ المهنيّ.
تحديدُ وقتِ استخدامٍ يوميٍّ معقولٍ وتجنّبُ الاعتماد العاطفيّ أو التفاعليّ الكامل مع هذه الأدوات كمصدرٍ وحيدٍ للدعم.
توجيهُ الأشخاص الذين يعانون من اضطراباتٍ نفسيّةٍ أو عزلةٍ اجتماعيةٍ إلى أخصائيّين مؤهّلين بدلًا من الاعتماد على “رفيقٍ رقميٍّ”.
تعزيزُ الحوار حول استخدامِ هذه الأدواتِ بوعيٍ — بما في ذلك الوعيُ بأنّها خوارزمياتٌ تُعطي ردودًا لا تشكّ ولا تحدّ من الأوهام.
على المطوّرين والمنظّماتِ المعنية وضعُ أنظمةِ حمايةٍ تُنبّه إلى الاستخدامِ المفرط أو الاعتمادِ النفسيّ الزائد على أنظمةِ المحادثة.
خاتمةٌ
إنّ الانتشارَ السريع لأدواتِ المحادثةِ الذكيةِ قد فتح آفاقًا كبيرةً من الدعمِ والراحةِ للمستخدمين، لكنّ الجانبَ المظلم لا يزال متخفّيًا في ظلّه: الاستخدامُ المفرط قد يولّد اعتمادًا نفسيًّا غيرَ واعٍ، وقد ينزلق بمستخدميه إلى دوائرَ من العزلةِ والأوهام.
وفي ظلّ هذا التطوّر التقنيّ، تبقى الحقيقةُ بسيطةً: التكنولوجيا وسيلةٌ، لا أن تكون بديلًا عن الإنسان.








