خبراء.. احذر إتاحة بيانات سرية لمنصات الذكاء الاصطناعي
AI بالعربي – متابعات
حذَّر خبراء معهد هاسو بلاتنر إنستيتيوت إتش.بي.آي الألماني المتخصص في تكنولوجيا المعلومات من مخاطر تقديم معلومات حساسة في أثناء استخدام منصة المحادثة باستخدام الذكاء الاصطناعي ChatGPT بسبب ضعف عوامل حماية البيانات والمحافظة على السرية في هذه المنصة.
وقال الخبراء إنه إلى جانب المخاوف من أن تقدم منصة “شات جي.بي.تي” إجابات خطأ أو مزيفة للأسئلة، فإن هذه الخدمة لا يجب اعتبارها مكانًا جيدًا للمحافظة على السرية.
يأتي ذلك في الوقت الذي يتزايد فيه اعتماد المستخدمين على منصات محادثة الذكاء الاصطناعي مثل شات جي.بي.تي وجوجل بارد في حياتهم اليومية، لذلك يحذر خبراء أمن البيانات من تداول المعلومات السرية عبر هذه المنصات.
سياسات الخصوصية على ChatGPT
في الوقت نفسه يشير خبراء معهد إتش.بي.آي إلى أن المستخدمين قد يندفعون لإضافة بيانات حساسة على المنصة نظرًا إلى أنه كلّما قدم لها المستخدم معلومات، تمكَّنت من تقديم إجابات بطريقة أفضل وأذكى. يذكر أن أي مستخدم يتداول معلومات سرية على أي منصة ذكاء اصطناعي، فإنه يخاطر بالتخلي عن سرية بياناته، وهو ما تؤكده سياسة الخصوصية على منصة شات جي.بي.تي.
تقول شركة أوبن.أيه المطورة لمنصة شات جي.بي.تي: “كجزء من التزامنا بالسلامة والمسؤولية، نراجع محادثاتنا لتحسين أنظمتنا والتأكد من التزام المحتوى بسياساتنا واشتراطات السلامة”، مؤكدة أن موظفي المنصة يستطيعون رؤية ما يكتبه المستخدمون، في حين توفّر الشركة خاصية حذف البيانات.
تحذير الموظفين من التفريط في بيانات شركاتهم
وأضاف خبراء معهد تكنولوجيا المعلومات الألماني أنه لا يجب الإبقاء على الأسرار الشخصية فقط بعيدًا عن منصات الذكاء الاصطناعي ،وإنما أيضًا معلومات الشركات، وعلى الموظفين الحذر عند السماح لأي منصة ذكاء اصطناعي بالوصول إلى بيانات شركاتهم.
وقالوا إن أي شخص يقوم بتحميل البيانات الداخلية لموظفي شركاتهم لكي يستخدمها في إعداد عرض تقديمي أو يستعين بمنصة شات جي.بي.تي لترتيب وتحليل الأرقام المالية للشركة فإنه يعرض بيانات الشركة للخطر. وحذرت شركة أمن البيانات سايبر هيفن من أن الكثير من الشركات تسرب بيانات حساسة “مئات المرات كل أسبوع” نتيجة مبالغة الموظفين في استخدام شات جي.بي.تي.