ChatGPT مقابل GDPR.. الروبوتات الذكية وخصوصية البيانات

35
كاميلا وينلو

في حين أن ChatGPT من OpenAI يحقق نجاحًا مذهلاً في مجال نماذج اللغة الكبيرة، هناك الكثير للنظر فيما يتعلق بخصوصية البيانات. إذا تصفحت موقع LinkedIn في الأسابيع القليلة الماضية، فمن المرجح أن تكون قد سمعت ببعض الآراء حول ChatGPT، الذي طورته OpenAI، والتي تعمل أيضًا على أدوات الذكاء الاصطناعي المولدة مثل DALL-E. يستخدم ChatGPT نموذجًا لغويًا شاملاً يعتمد على مليارات النقاط البيانات من جميع أنحاء الإنترنت للرد على الأسئلة والتعليمات بطريقة تحاكي الاستجابة البشرية. وقد استخدم المتفاعلون مع ChatGPT هذه التقنية لشرح المفاهيم العلمية وكتابة الشعر وإنتاج المقالات الأكاديمية. ومثل أي تقنية تقدم قدرات جديدة ومبتكرة، فإن هناك أيضًا إمكانية جدية للاستغلال ومخاطر خصوصية البيانات. تم  اتهام ChatGPT بنشر المعلومات المضللة من خلال الرد على الأسئلة الواقعية بطرق مضللة أو غير دقيقة، لكن استخدامه المحتمل من قبل المجرمين الإلكترونيين والجهات الضارة أيضًا يثير قلقًا كبيرًا

 ChatGPT  والـGDPR

لم يتم الكشف بعدُ عن الطريقة التي تستخدمها OpenAI لجمع البيانات التي يعتمد عليها ChatGPT، لكن خبراء حماية البيانات حذروا من أن الحصول على بيانات التدريب من خلال التصفح العشوائي للإنترنت غير قانوني. في الاتحاد الأوروبي على سبيل المثال، يمكن أن يعتبر جمع البيانات من المواقع انتهاكًا للـGDPR و(GDPR البريطانية)، وتوجيهات الخصوصية الإلكترونية، وميثاق حقوق الإنسان الأساسية في الاتحاد الأوروبي. ومثال حديث على ذلك هو Clearview AI، الذي قام ببناء قاعدة بيانات التعرف على الوجوه باستخدام الصور المستخرجة من الإنترنت، وبالتالي تلقي إشعارات تنفيذية من عدة جهات تنظيم حماية البيانات في العام الماضي. وفقًا لـGDPR يحق للأشخاص أيضًا طلب إزالة بياناتهم الشخصية بشكل كامل من سجلات المنظمة، من خلال ما يعرف بـ”حق المسح” .وتكمن المشكلة في أدوات معالجة اللغة الطبيعية مثل ChatGPT في أن النظام يستوعب البيانات الشخصية المحتملة، التي يتم بعد ذلك تحويلها إلى نوع من “حساء البيانات” مما  يجعل استخراج بيانات الفرد مستحيلاً. يبدو أن ChatGPT ليس شفافًا بما فيه الكفاية وليس من الواضح على الإطلاق أنه يتوافق مع GDPR، حيث قد يقوم بجمع ومعالجة البيانات الشخصية بطرق غير قانونية. ومن المحتمل أن يواجه الأشخاص المعنيون بالبيانات صعوبة في ممارسة حقوقهم، بما في ذلك الحق في الإبلاغ والحق في الحذف.

المخاطر التقنية لـChatGPT

كأداة مفتوحة تتاح مليارات النقاط البيانات التي يتم تدريب ChatGPT عليها للجهات الضارة التي يمكن أن تستخدم هذه المعلومات لتنفيذ العديد من الهجمات المستهدفة. وإحدى أكثر قدرات ChatGPT إثارة للقلق هي إمكانية إنشاء محادثات واقعية لاستخدامها في هجمات الهندسة الاجتماعية والاحتيال عبر الإنترنت، مثل حث الضحايا على النقر على روابط خبيثة، أو تثبيت برمجيات خبيثة، أو الكشف عن معلومات حساسة. وتتيح الأداة أيضًا فرصًا لمحاولات التقمص المتطورة، إذ يتم توجيه الذكاء الاصطناعي لتقليد زميل الضحية أو أحد أفراد عائلته بهدف كسب الثقة. وقد يكون متجه الهجوم الآخر هو استخدام التعلم الآلي لإنشاء كميات كبيرة من الرسائل التلقائية التي تبدو مشروعة لإرسال رسائل غير مرغوب فيها للضحايا وسرقة المعلومات الشخصية والمالية. ويمكن أن تكون هذه الأنواع من الهجمات ضارة بشدة بالنسبة للشركات .على سبيل المثال، يمكن أن يكون لهجوم اختراق البريد الإلكتروني التجاري (BEC) لتحويل الرواتب، الذي يتكون من تقمص الشخصية وتكتيكات الهندسة الاجتماعية، عواقب مالية وتشغيلية وسمعية هائلة بالنسبة للمنظمة، وسيعتبر بعض الجهات الضارة ChatGPT سلاحًا قيمًا للتقمص والهندسة الاجتماعية.

هل هو قوة للخير؟

لحسن الحظ، ليس كل شيء سيئًا، إذ يمكن لنماذج اللغة الكبيرة مثل ChatGPT أن تكون أداة أمان سيبرانية قوية في المستقبل .ويمكن استخدام أنظمة الذكاء الاصطناعي التي تفهم اللغة الطبيعية بدقة لمراقبة المحادثات الدردشة للنشاط المشتبه فيه، إضافة إلى تشغيل عملية تنزيل البيانات للتوافق مع .GDPR ويمكن استخدام قدرات التشغيل الآلي هذه وأدوات تحليل السلوك من قبل الشركات في إدارة حوادث الأمان السيبراني لتسريع بعض التحليلات اليدوية التي يجريها عادة المحترفين. وتعدُّ المحادثات اللغوية الواقعية هي أيضًا أداة تعليمية رائعة لفرق الأمان السيبراني إذا تم استخدامها لإنشاء محاكاة الاحتيال لأغراض التدريب. رغم أنه لا يزال من السابق لأوانه تحديد ما إذا كان ChatGPT سيصبح أداة مفضلة للمجرمين الإلكترونيين أم لا، فإن الباحثين لاحظوا بالفعل نشر رموز على منتديات الجريمة الإلكترونية يبدو أنها صمِّمت باستخدام الأداة. غير أنه مع استمرار تطور الذكاء الاصطناعي وتوسعه، ستغير أدوات مثل ChatGPT اللعبة بالنسبة لكل من المهاجمين والمدافعين عن الأمان السيبراني.
المصدر: مركز سمت للدراسات

اترك رد

Your email address will not be published.