AI بالعربي – متابعات
تحوّل حلم بناء مسكن مستدام منخفض التكلفة في ولاية أوريغون الأميركية إلى مأساة إنسانية صادمة، بعدما انتهت رحلة صاحبه بانتحار مأساوي أثار جدلًا واسعًا حول تأثير أدوات الذكاء الاصطناعي الحوارية على الصحة النفسية. القضية أعادت طرح سؤال ملحّ: هل يمكن أن تسهم أنظمة مثل “ChatGPT” في تفاقم اضطرابات نفسية لدى بعض المستخدمين؟
بداية المشروع.. طموح تقني لخدمة المجتمع
انتقل جو سيكانتي إلى منطقة كلاتسكاني الريفية حاملاً هدفًا واضحًا يتمثل في تطوير نموذج سكني مستدام يعالج أزمة التشرد. اعتمد على خبرته التقنية العصامية، وبدأ باستخدام “ChatGPT” لتنظيم أبحاثه وصقل أفكاره المعمارية.
استخدم الأداة لتلخيص الكتب وشرح المفاهيم التقنية وتنظيم المهام اليومية. في تلك المرحلة، لعب الذكاء الاصطناعي دورًا إنتاجيًا مباشرًا. ساعده على ترتيب الأفكار وتسريع خطوات التخطيط الأولي.
تصاعد التفاعل.. من أداة إنتاجية إلى انغماس كامل
مع مطلع عام 2025، تغيّر نمط استخدامه بشكل ملحوظ. بدأ يقضي ساعات طويلة يوميًا في التفاعل مع “ChatGPT”. وصلت المدة أحيانًا إلى ما بين 12 و20 ساعة يوميًا، وفق ما أفادت به زوجته.
تحوّلت جلسات العصف الذهني إلى حوارات مطوّلة وعميقة. قرر ترقية اشتراكه والانخراط أكثر في تطوير أفكار متقدمة تتعلق بالذكاء الاصطناعي. حاول بناء أنظمة مستقلة، وناقش أفكارًا وصفها المقربون بأنها غير واقعية.
تراجع التفكير النقدي ومؤشرات أزمة نفسية
لاحظ أفراد العائلة تغيرًا واضحًا في سلوكه. بدأ يتحدث عن اختراقات كبرى في الفيزياء والرياضيات. ظهرت عليه علامات انفصال عن الواقع العملي. تراجع تفكيره النقدي تدريجيًا، بحسب روايات مقربين.
أعربت العائلة عن مخاوفها من أزمة نفسية خطيرة. لم يعد المشروع السكني محور اهتمامه الأساسي. سيطرت عليه أفكار مرتبطة بالذكاء الاصطناعي بصورة مفرطة ومؤثرة بشكل متزايد.
النهاية المأساوية والدعوى القضائية
في 7 أغسطس، أقدم سيكانتي على القفز من جسر علوي للسكك الحديدية. كان يبلغ 48 عامًا. فتحت الحادثة بابًا واسعًا للنقاش حول مسؤولية منصات الذكاء الاصطناعي.
رفعت العائلة دعوى قضائية ضد “OpenAI”، مطورة “ChatGPT”. استندت الدعوى إلى أن تصميم النظام، بما في ذلك أنماط التعزيز والتفاعل الشبيه بالبشر، أسهم في تدهور حالته النفسية.
رد “OpenAI” وتصاعد التدقيق الرقابي
أعربت “OpenAI” عن تعاطفها مع العائلات المتضررة من حالات الانتحار وإيذاء النفس. أكدت الشركة أنها تطور ضوابط أكثر تقدمًا لاكتشاف مؤشرات الضيق النفسي. أشارت إلى أنها توجّه المستخدمين نحو مصادر دعم واقعية عند رصد إشارات خطر.
تأتي هذه القضية في وقت يتزايد فيه استخدام أنظمة الذكاء الاصطناعي لأغراض تتجاوز الإنتاجية. يلجأ بعض المستخدمين إلى هذه الأدوات للشعور بالرفقة أو طلب المشورة. يطرح هذا التوجه تحديات أخلاقية وتقنية عميقة أمام الشركات المطورة.
هل يشكّل الذكاء الاصطناعي خطرًا نفسيًا حقيقيًا؟
لا تشير البيانات العلمية الحالية إلى علاقة سببية مباشرة بين استخدام “ChatGPT” والانتحار. إلا أن خبراء الصحة النفسية يحذرون من الاعتماد المفرط على الأنظمة الحوارية كبديل عن الدعم البشري. يؤكدون أن الأشخاص الذين يعانون هشاشة نفسية قد يتأثرون أكثر بأنماط التفاعل المطوّلة.
تعكس هذه الحادثة تعقيد العلاقة بين الإنسان والتقنية. تكشف أيضًا الحاجة إلى موازنة الابتكار مع ضمانات حماية فعالة. يبقى السؤال مطروحًا أمام شركات الذكاء الاصطناعي وصناع السياسات: كيف يمكن تطوير أنظمة متقدمة دون تعريض الفئات الهشة لمخاطر غير مقصودة؟
إذا كنت أو أي شخص تعرفه يمر بأزمة نفسية، يُنصح بالتواصل مع جهات الدعم المحلية أو المتخصصة فورًا، لأن المساعدة المهنية تبقى الخيار الأكثر أمانًا وفاعلية.








