ChatGPT مقابل GDPR.. الروبوتات الذكية وخصوصية البيانات

ChatGPT مقابل GDPR.. الروبوتات الذكية وخصوصية البيانات

كاميلا وينلو

في حين أن ChatGPT من OpenAI يحقق نجاحًا مذهلاً في مجال نماذج اللغة الكبيرة، هناك الكثير للنظر فيما يتعلق بخصوصية البيانات. إذا تصفحت موقع LinkedIn في الأسابيع القليلة الماضية، فمن المرجح أن تكون قد سمعت ببعض الآراء حول ChatGPT، الذي طورته OpenAI، والتي تعمل أيضًا على أدوات الذكاء الاصطناعي المولدة مثل DALL-E. يستخدم ChatGPT نموذجًا لغويًا شاملاً يعتمد على مليارات النقاط البيانات من جميع أنحاء الإنترنت للرد على الأسئلة والتعليمات بطريقة تحاكي الاستجابة البشرية. وقد استخدم المتفاعلون مع ChatGPT هذه التقنية لشرح المفاهيم العلمية وكتابة الشعر وإنتاج المقالات الأكاديمية. ومثل أي تقنية تقدم قدرات جديدة ومبتكرة، فإن هناك أيضًا إمكانية جدية للاستغلال ومخاطر خصوصية البيانات. تم  اتهام ChatGPT بنشر المعلومات المضللة من خلال الرد على الأسئلة الواقعية بطرق مضللة أو غير دقيقة، لكن استخدامه المحتمل من قبل المجرمين الإلكترونيين والجهات الضارة أيضًا يثير قلقًا كبيرًا

 ChatGPT  والـGDPR

لم يتم الكشف بعدُ عن الطريقة التي تستخدمها OpenAI لجمع البيانات التي يعتمد عليها ChatGPT، لكن خبراء حماية البيانات حذروا من أن الحصول على بيانات التدريب من خلال التصفح العشوائي للإنترنت غير قانوني. في الاتحاد الأوروبي على سبيل المثال، يمكن أن يعتبر جمع البيانات من المواقع انتهاكًا للـGDPR و(GDPR البريطانية)، وتوجيهات الخصوصية الإلكترونية، وميثاق حقوق الإنسان الأساسية في الاتحاد الأوروبي. ومثال حديث على ذلك هو Clearview AI، الذي قام ببناء قاعدة بيانات التعرف على الوجوه باستخدام الصور المستخرجة من الإنترنت، وبالتالي تلقي إشعارات تنفيذية من عدة جهات تنظيم حماية البيانات في العام الماضي. وفقًا لـGDPR يحق للأشخاص أيضًا طلب إزالة بياناتهم الشخصية بشكل كامل من سجلات المنظمة، من خلال ما يعرف بـ”حق المسح” .وتكمن المشكلة في أدوات معالجة اللغة الطبيعية مثل ChatGPT في أن النظام يستوعب البيانات الشخصية المحتملة، التي يتم بعد ذلك تحويلها إلى نوع من “حساء البيانات” مما  يجعل استخراج بيانات الفرد مستحيلاً. يبدو أن ChatGPT ليس شفافًا بما فيه الكفاية وليس من الواضح على الإطلاق أنه يتوافق مع GDPR، حيث قد يقوم بجمع ومعالجة البيانات الشخصية بطرق غير قانونية. ومن المحتمل أن يواجه الأشخاص المعنيون بالبيانات صعوبة في ممارسة حقوقهم، بما في ذلك الحق في الإبلاغ والحق في الحذف.

المخاطر التقنية لـChatGPT

كأداة مفتوحة تتاح مليارات النقاط البيانات التي يتم تدريب ChatGPT عليها للجهات الضارة التي يمكن أن تستخدم هذه المعلومات لتنفيذ العديد من الهجمات المستهدفة. وإحدى أكثر قدرات ChatGPT إثارة للقلق هي إمكانية إنشاء محادثات واقعية لاستخدامها في هجمات الهندسة الاجتماعية والاحتيال عبر الإنترنت، مثل حث الضحايا على النقر على روابط خبيثة، أو تثبيت برمجيات خبيثة، أو الكشف عن معلومات حساسة. وتتيح الأداة أيضًا فرصًا لمحاولات التقمص المتطورة، إذ يتم توجيه الذكاء الاصطناعي لتقليد زميل الضحية أو أحد أفراد عائلته بهدف كسب الثقة. وقد يكون متجه الهجوم الآخر هو استخدام التعلم الآلي لإنشاء كميات كبيرة من الرسائل التلقائية التي تبدو مشروعة لإرسال رسائل غير مرغوب فيها للضحايا وسرقة المعلومات الشخصية والمالية. ويمكن أن تكون هذه الأنواع من الهجمات ضارة بشدة بالنسبة للشركات .على سبيل المثال، يمكن أن يكون لهجوم اختراق البريد الإلكتروني التجاري (BEC) لتحويل الرواتب، الذي يتكون من تقمص الشخصية وتكتيكات الهندسة الاجتماعية، عواقب مالية وتشغيلية وسمعية هائلة بالنسبة للمنظمة، وسيعتبر بعض الجهات الضارة ChatGPT سلاحًا قيمًا للتقمص والهندسة الاجتماعية.

هل هو قوة للخير؟

لحسن الحظ، ليس كل شيء سيئًا، إذ يمكن لنماذج اللغة الكبيرة مثل ChatGPT أن تكون أداة أمان سيبرانية قوية في المستقبل .ويمكن استخدام أنظمة الذكاء الاصطناعي التي تفهم اللغة الطبيعية بدقة لمراقبة المحادثات الدردشة للنشاط المشتبه فيه، إضافة إلى تشغيل عملية تنزيل البيانات للتوافق مع .GDPR ويمكن استخدام قدرات التشغيل الآلي هذه وأدوات تحليل السلوك من قبل الشركات في إدارة حوادث الأمان السيبراني لتسريع بعض التحليلات اليدوية التي يجريها عادة المحترفين. وتعدُّ المحادثات اللغوية الواقعية هي أيضًا أداة تعليمية رائعة لفرق الأمان السيبراني إذا تم استخدامها لإنشاء محاكاة الاحتيال لأغراض التدريب. رغم أنه لا يزال من السابق لأوانه تحديد ما إذا كان ChatGPT سيصبح أداة مفضلة للمجرمين الإلكترونيين أم لا، فإن الباحثين لاحظوا بالفعل نشر رموز على منتديات الجريمة الإلكترونية يبدو أنها صمِّمت باستخدام الأداة. غير أنه مع استمرار تطور الذكاء الاصطناعي وتوسعه، ستغير أدوات مثل ChatGPT اللعبة بالنسبة لكل من المهاجمين والمدافعين عن الأمان السيبراني.
المصدر: مركز سمت للدراسات

Related Posts

تحذيرات من سباق “الذكاء الاصطناعي العام”.. بين الطموح والخطر

AI بالعربي – متابعات حذر خبراء بريطانيون من الاندفاع وراء تحقيق ما يُعرف بـ”الذكاء الاصطناعي العام”، معتبرين أن الهوس بالوصول إلى ذكاء يحاكي البشر قد يتحول إلى مغامرة غير محسوبة…

إريك شميدت: الذكاء الاصطناعي قد يتحول إلى أداة للقتل

AI بالعربي – متابعات حذّر الملياردير إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، من المخاطر المتزايدة التي يحملها الذكاء الاصطناعي على حياة البشر، مؤكدًا أن الأنظمة الذكية يمكن أن تُستغل…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 207 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 222 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 147 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 169 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 104 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق

  • سبتمبر 15, 2025
  • 112 views
الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق