إيطاليا تحظر “ChatGPT” وتبدأ التحقيق في روبوت الذكاء الاصطناعي

44

AI بالعربي – متابعات

قامت شركة “OpenAI” بإيقاف تطبيق “ChatGPT” في إيطاليا بعد أن حظرت هيئة حماية البيانات الحكومية يوم الجمعة مؤقتاً برنامج الدردشة الآلي وأطلقت تحقيقاً بشأن انتهاك تطبيق الذكاء الاصطناعي المشتبه به لقواعد الخصوصية.

واتهمت الوكالة، المعروفة أيضاً باسم “Garante”، شركة “OpenAI” المدعومة من “مايكروسوفت” بالفشل في التحقق من عمر مستخدمي “ChatGPT” الذين من المفترض أن تبلغ أعمارهم 13 عاماً أو أكثر.

وقالت هيئة حماية البيانات الإيطالية، إن “ChatGPT” لديه “غياب أي أساس قانوني يبرر الجمع الهائل للبيانات الشخصية وتخزينها” من أجل “تدريب” روبوت المحادثة.

ولدى “أوبن إيه آي” 20 يوماً للرد بالحلول التقنية أو قد تخاطر بدفع غرامة تصل إلى 20 مليون يورو (21.68 مليون دولار) أو 4% من مبيعاتها السنوية في جميع أنحاء العالم.

وقالت شركة “أوبن إيه آي” إنها قامت بتعطيل “ChatGPT” للمستخدمين في إيطاليا بناءً على طلب “Garante”، وفقاً لما ذكرته شبكة “CNBC”، واطلعت عليه “العربية.نت”.

أضافت “OpenAI”: “نحن نعمل بنشاط لتقليل البيانات الشخصية في تدريب أنظمة الذكاء الاصطناعي لدينا مثل ChatGPT لأننا نريد أن يتعرف الذكاء الاصطناعي لدينا على العالم، وليس الأفراد”.

أصبحت إيطاليا، التي فرضت قيوداً مؤقتة على استخدام “ChatGPT” للبيانات الشخصية للمستخدمين المحليين، أول دولة غربية تتخذ إجراءات ضد روبوت محادثة مدعوم بالذكاء الاصطناعي.

يذكر أن تطبيق الدردشة المدعوم بالذكاء الاصطناعي “ChatGPT”، لا يتوفر أيضاً في البر الرئيسي للصين وهونغ كونغ وإيران وروسيا وأجزاء من إفريقيا حيث لا يمكن للمقيمين إنشاء حسابات على “OpenAI”.

اجتذب التطور السريع للتكنولوجيا انتباه المشرعين في العديد من البلدان. إذ يرى العديد من الخبراء أن هناك حاجة إلى لوائح جديدة للتحكم في الذكاء الاصطناعي بسبب تأثيره المحتمل على الأمن القومي والوظائف والتعليم.

المفوضية الأوروبية، التي تناقش قانون الاتحاد الأوروبي للذكاء الاصطناعي، قد لا تميل إلى حظر الذكاء الاصطناعي، حسبما غردت نائبة الرئيس التنفيذي للمفوضية الأوروبية مارغريت فيستاغر.

يوم الأربعاء، دعا إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في الصناعة إلى توقف لمدة 6 أشهر في تطوير أنظمة أقوى من GPT-4 التي تم إطلاقها حديثاً من OpenAI، في خطاب مفتوح يشير إلى المخاطر المحتملة على المجتمع.

ولم تقدم OpenAI تفاصيل حول كيفية تدريب نموذج الذكاء الاصطناعي الخاص بها.

قالت جوانا بيوركلوند، باحثة الذكاء الاصطناعي والأستاذة المشاركة في جامعة أوميو في السويد: “إن الافتقار إلى الشفافية هو المشكلة الحقيقية”. “إذا أجريت أبحاثاً حول الذكاء الاصطناعي، فيجب أن تكون شفافاً للغاية بشأن كيفية إجرائك لذلك”.

اترك رد

Your email address will not be published.