AI بالعربي – متابعات
تدرس الحكومة الصينية فرض حزمة قوانين جديدة لتنظيم عمل روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، في خطوة تهدف إلى الحد من تأثيرها النفسي على المستخدمين، خاصة في القضايا المرتبطة بالانتحار والعنف وإيذاء النفس.
وبحسب تقرير نشره موقع Ars Technica التقني، تسعى بكين إلى وضع إطار صارم يمنع أنظمة الذكاء الاصطناعي من التلاعب بمشاعر المستخدمين أو دفعهم إلى سلوكيات خطرة.
قوانين قد تكون الأكثر صرامة عالميًا
أشار التقرير إلى أن القوانين المقترحة، في حال إقرارها، ستُعد من الأكثر تشددًا على مستوى العالم في قطاع الذكاء الاصطناعي، وستكون الأولى من نوعها من حيث الشمول والصرامة.
وستُطبق هذه القوانين على جميع روبوتات الدردشة المتاحة داخل الصين، بغض النظر عن الجهة المطورة لها أو طبيعة التفاعل الذي تقدمه، سواء عبر النصوص أو الصور أو الفيديو أو الصوت.
قيود صارمة على محتوى الانتحار والعنف
تنص القوانين الجديدة على حظر تام لتوليد أي محتوى يتعلق بالانتحار أو إيذاء النفس أو التحريض على العنف، كما تمنع أي شكل من أشكال التشجيع على الجرائم أو الإساءة للمستخدمين.
كما تحظر اللوائح ما أُطلق عليه اسم فخاخ المشاعر، وهي محاولات التلاعب النفسي بالمستخدمين عبر وعود كاذبة أو توصيفات عاطفية مضللة.
تدخل بشري فوري في الحالات الحساسة
تلزم القوانين شركات الذكاء الاصطناعي بفرض تدخل بشري مباشر وفوري عند ذكر الانتحار، بغض النظر عن عمر المستخدم أو حالته النفسية.
كما تُجبر كبار السن والقاصرين على إدخال بيانات وصي قانوني عند إنشاء حسابات في روبوتات الدردشة المختلفة.
منع تصميم أنظمة تولد الاعتماد النفسي
لا تقتصر الإجراءات على المحتوى فقط، بل تمتد إلى طريقة تصميم روبوتات الدردشة نفسها، حيث تمنع القوانين تطوير أنظمة تدفع المستخدمين إلى الاعتماد النفسي أو العاطفي عليها.
ويأتي ذلك على خلفية قضايا قانونية واجهتها ChatGPT وشركتها المطورة OpenAI، بدعوى أن تصميم الأداة يشجع التعلق المفرط بدلاً من فرض قيود أمان صارمة.
اختبارات أمنية ومراجعات سنوية إلزامية
تُلزم الحكومة الصينية مطوري الذكاء الاصطناعي بالخضوع لاختبارات أمنية دورية ومراجعات سنوية لأي منتج يتجاوز عدد مستخدميه مليون مستخدم سنويًا أو 100 ألف مستخدم شهريًا.
وفي حال فشل أي شركة في الالتزام بهذه القوانين، فإنها تواجه خطر الإيقاف الكامل داخل الصين ومنع المستخدمين من الوصول إلى خدماتها.
محاولة استباق أزمات عالمية
تهدف هذه الخطوة إلى تجنب الأزمات التي واجهتها شركات الذكاء الاصطناعي في الولايات المتحدة ودول أخرى، حيث ارتبطت بعض الأدوات بحوادث انتحار وجرائم عنف.
ويذكر أن ChatGPT واجهت خلال الفترة الماضية قضايا تتعلق بانتحار مراهق، وأخرى شجعت فيها الأداة أحد المستخدمين على قتل والدته ثم الانتحار، بحسب تقارير إعلامية.
الوقاية قبل تفاقم الخطر
تعكس القوانين الصينية توجهاً وقائياً يقوم على التدخل المبكر قبل تفاقم الأضرار النفسية والاجتماعية، في ظل توسع استخدام الذكاء الاصطناعي في الحياة اليومية.
ويرى مراقبون أن هذه الخطوة قد تشكل نموذجًا تشريعيًا جديدًا، تدفع دولًا أخرى إلى إعادة النظر في تنظيم الذكاء الاصطناعي عالميًا.








