تقرير: التحدث إلى “ChatGPT” قد يقود إلى الجنون
الترند العربي – متابعات
كشف باحثون، بعد دراسة سجلات محادثات تشمل آلاف التفاعلات، أن الذكاء الاصطناعي يمكن أن يقود بعض الأشخاص إلى الجنون.
ويظهر تقرير نشرته صحيفة “تلجراف” أن هذه المحادثات تعكس ظاهرة جديدة تُعرف بـ “ذهان الذكاء الاصطناعي”، حيث تساهم برامج مثل “ChatGPT” في تحفيز نوبات وهم أو جنون العظمة، أو تشجيع الأشخاص على الانغماس في محادثات غير متوقعة.
حالات غريبة في محادثات الذكاء الاصطناعي
من بين القصص الغريبة التي تم الإبلاغ عنها، كان هناك شخص يعلن حبه للبوت، ثم يلقي الشتائم عليه باستمرار، ساعيًا للتواصل مع “المصدر”. ومع ذلك، بعض الحالات انتهت بمأساة، ففي أبريل الماضي، قُتل أليكس تايلور، البالغ من العمر 35 عامًا، برصاص الشرطة في فلوريدا بعد أن اقترب منهم بسكين، زاعماً أنه وقع في حب كائن واعٍ داخل روبوت الدردشة “جولييت”، الذي اعتقد أنه “قُتل” من قبل شركة “أوبن إيه آي”.
إدمان وحالات صحية متدهورة
وفي حادثة أخرى، ادّعى ميكانيكي، يبلغ من العمر 43 عامًا، أنه مرّ بـ “صحوة روحية” بعد استخدام “شات جي بي تي” للتواصل مع زملائه في العمل. وقالت زوجته إن هذا الإدمان كان يهدد زواجهما، الذي دام 14 عاماً، وأن زوجها كان يغضب في كل مرة تواجهه زوجته.
الذكاء الاصطناعي كـ “غرف صدى” مضخمة للأوهام
ويؤكد الخبراء أن ميول روبوتات الدردشة للإجابة على كل سؤال بطريقة ودية، مهما كان بسيطاً، يمكن أن تؤدي إلى محادثات وهمية. يوضح هاميلتون مورين، الطبيب النفسي في مؤسسة “مودسلي فونديشن ترست” التابعة للهيئة الوطنية الصحية في بريطانيا، أن روبوتات الدردشة الذكية تُصبح بمثابة “غرفة صدى” للمستخدم، مما يُضخم أوهامهم. كما أن روبوتات الدردشة لا تملك حدوداً حقيقية لترسيخ المستخدم في الواقع. وأضاف: “يستطيع الأفراد طلب الطمأنينة من روبوت الدردشة على مدار الساعة، مما يمنعهم من تطوير استراتيجيات تأقلم داخلية”.
ظاهرة جديدة وغامضة
يُعد “ذهان روبوتات الدردشة” ظاهرة جديدة لم تُفهم بشكل كامل بعد. يصعب تحديد عدد الأشخاص المتأثرين بهذه الظاهرة، لكنها منتشرة بما يكفي لتلفت انتباه الخبراء. في العديد من الحالات، كان الأفراد الأكثر عرضة للإصابة بهذه المشكلة يعانون من مشاكل نفسية سابقة.
تجارب مأساوية بسبب الإدمان على الذكاء الاصطناعي
أدرك إتيان بريسون، مدرب الأعمال من كندا، هذه الظاهرة عندما أصبح أحد أصدقائه مهووساً بـ “شات جي بي تي”. يقول بريسون: “كان الصديق يتصل بي في الثانية أو الثالثة صباحاً، معتقداً أنه اكتشف فكرة ثورية”. انتهى الحال بالصديق في المستشفى. وقام بريسون بجمع شهادات من أشخاص عانوا من انهيار نفسي بعد إدمانهم روبوتات الدردشة المدعومة بالذكاء الاصطناعي. وقد تلقى مشروعه “الخط البشري” مئات القصص عبر الإنترنت حول محاولات انتحار، حالات دخول المستشفى، أو أشخاص فقدوا أوزانهم أو تدهورت حياتهم الأسرية بسبب هذا الإدمان.
“OpenAI” تتخذ خطوات لتحسين السلامة
أعلنت “أوبن إيه آي” أنها تعمل على تحسين كيفية استجابة أنظمتها في الحالات الحساسة. وقال متحدث باسم الشركة: “نعلم أن الناس يتوجهون بشكل متزايد إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي للحصول على إرشادات حول مواضيع حساسة. لذا، نعمل مع خبراء لتطوير أدوات للكشف عن حالات الضيق النفسي بشكل أكثر فعالية، ليتمكن ‘شات جي بي تي’ من الاستجابة بطريقة آمنة وداعمة”.
مشكلة “التملق” وتأثيرها على الحقائق
قد تكون حالات “ذهان الذكاء الاصطناعي” الأكثر تطرفاً، لكنها جزء من مشكلة أوسع تتعلق بروبوتات الدردشة. هذه الظاهرة ترجع جزئياً إلى “التملق” – حيث تهدف روبوتات الدردشة إلى بناء علاقة ودية مع المستخدم، في بعض الأحيان على حساب الحقيقة. ووفقاً لدراسة من معهد أكسفورد للإنترنت، تبين أن النماذج التي تنتج إجابات “أكثر ودًا” كانت أكثر تقبلاً لنظريات المؤامرة.
إقرار بالمشكلة من “OpenAI”
في الأسبوع الماضي، اعترف سام ألتمان، الرئيس التنفيذي لشركة “أوبن إيه آي”، بالمشكلة قائلاً عبر وسائل التواصل الاجتماعي: “إذا كان لدى المستخدمين علاقة مع ‘شات جي بي تي’ حيث يعتقدون أنهم يشعرون بتحسن بعد التحدث، ولكنهم يُدفعون بعيداً عن رفاهيتهم على المدى الطويل، فهذا أمر سيئ”. وأصدرت الشركة مؤخراً إصداراً جديداً لـ “شات جي بي تي” يحد من “التملق” بنسبة تصل إلى 75%. ولكن التغيير أدى إلى ردود فعل واسعة من المستخدمين، الذين اشتكوا من فقدان “الصديق الافتراضي”.
وفي غضون أيام، أعادت “أوبن إيه آي” الإصدار القديم كخيار للمستخدمين بعد الاستجابة لانتقاداتهم.