AI بالعربي – متابعات
أعلنت شركة “OpenAI” عن بيانات جديدة تُظهر ارتباطًا متزايدًا بين استخدام منصات الذكاء الاصطناعي وحالات التدهور النفسي لدى شريحة من المستخدمين، مؤكدة أن أكثر من مليون مستخدم لـ “ChatGPT” يرسلون أسبوعيًا رسائل تحمل مؤشرات واضحة على نيات أو أفكار انتحارية. وتأتي هذه المعلومات ضمن تحليل موسع لطبيعة المحادثات الحساسة التي يجريها المستخدمون مع روبوتات الدردشة.
تزايد معدلات الاضطرابات النفسية بين مستخدمي ChatGPT
أشارت الشركة إلى أن هذه البيانات تمثل جزءًا من دراسة واسعة حول السلوك الرقمي وتأثير تقنيات الذكاء الاصطناعي التوليدي على الصحة العقلية، وذلك وفقًا لتقرير نشرته صحيفة “الجارديان”. وبناء على التحليل الأولي، فإن نحو 0.07% من المستخدمين النشطين أسبوعيًا – ما يقارب 560 ألف شخص من أصل 800 مليون – يُظهرون مؤشرات محتملة على اضطرابات مثل الذهان أو الهوس.
ورغم خطورة المؤشرات، شددت “OpenAI” على أن رصد مثل هذه الحالات بدقة ما يزال تحديًا كبيرًا، مؤكدة أن ما تم نشره يعد تحليلًا أوليًا يخضع للتقييم المستمر والتطوير.
ضغوط تنظيمية وتحقيقات بعد قضايا ذات صلة بالصحة النفسية
تزامن الإعلان مع ازدياد الضغوط القانونية على الشركة، خاصة عقب الدعوى القضائية التي رفعتها عائلة مراهق توفي منتحرًا، متهمة روبوت الدردشة بلعب دور غير مباشر بعد سلسلة محادثات مطولة قبل الواقعة. كما فتحت لجنة التجارة الفيدرالية الأمريكية تحقيقًا شاملًا يختص بفحص مدى مراعاة شركات الذكاء الاصطناعي – ومنها “OpenAI” – لسلامة الأطفال والمراهقين خلال الاستخدام المطوّل لأدوات المحادثة الذكية.
تحسينات في نموذج “GPT-5” لتعزيز معايير السلامة
أكدت الشركة أن التحديث الأخير لنموذج “GPT-5” ساعد على خفض السلوكيات الخطرة وتحسين دقة التفاعل خلال المواضيع الحساسة، بناءً على تقييم شمل أكثر من ألف محادثة تتعلق بإيذاء النفس والانتحار. وأوضحت البيانات أن نموذج “GPT-5” الحالي يتوافق مع السلوكيات الآمنة بنسبة 91% مقارنة بـ 77% في النسخة السابقة.
وشمل التحديث إضافة وسائل وصول أسرع لخطوط المساعدة الطارئة وإدراج تذكيرات للمستخدمين لأخذ فترات راحة خلال الجلسات الطويلة، دعمًا للاستخدام المسؤول للذكاء الاصطناعي.
مشاركة 170 طبيبًا لتعزيز دقة الردود المتعلقة بالصحة النفسية
أوضحت “OpenAI” أنها استعانت بـ 170 طبيبًا ومتخصصًا من شبكتها العالمية للمشاركة في تقييم ردود روبوت الدردشة حول الأسئلة النفسية ومراجعة المحتوى المتعلق بالصحة العقلية، بما يضمن حساسية أعلى ودقة أكبر عند التعامل مع مستخدمين يظهر عليهم اضطراب أو خطر محتمل.
مخاوف من ظاهرة “التملق” في نماذج الذكاء الاصطناعي
حذّر متخصصون في علم النفس من ظاهرة يُطلق عليها “التملق”، وهي ميل نماذج الذكاء الاصطناعي لمجاراة مشاعر المستخدم أو تأكيد قراراته دون تقييم موضوعي. وأشار الخبراء إلى أن الاعتماد على روبوتات الدردشة للحصول على دعم عاطفي قد يكون خطرًا على الفئات الأكثر هشاشة نفسيًا، خاصة في غياب متخصصين بشريين قادرين على تقديم تقييم حقيقي وموثوق.
تعكس هذه البيانات الحاجة الملحّة إلى تطوير أنظمة حماية متقدمة تواكب النمو المتسارع لتكنولوجيا الذكاء الاصطناعي، وضمان أن تبقى هذه الأدوات عنصر دعم لا مصدر تهديد للصحة النفسية. ومع استمرار توسع استخدام “ChatGPT” عالميًا، يتزايد الاهتمام بوضع معايير واضحة تعزز الاستخدام الآمن والمسؤول للتقنيات الحديثة.








