
AI بالعربي – متابعات
تتزايد التساؤلات في الأوساط الرقمية حول مدى قدرة أدوات الذكاء الاصطناعي على مراقبة المستخدمين.
وتنتشر بين الحين والآخر مقاطع فيديو على مواقع التواصل تزعم أن “ChatGPT” يستطيع تشغيل الكاميرا أو الميكروفون دون إذن المستخدم، ما يثير موجة من القلق بشأن الخصوصية والأمان الرقمي.
هل يمكن لبرامج الذكاء الاصطناعي الوصول إلى الكاميرا والميكروفون؟
أوضح خبير الذكاء الاصطناعي والأمن السيبراني المهندس رامي المليجي أن أي تطبيق لا يستطيع تشغيل الكاميرا أو الميكروفون إلا بعد الحصول على إذن المستخدم.
وأشار إلى أن نظام الأذونات في الهواتف الذكية يُظهر للمستخدم كل طلب وصول عند تثبيت التطبيق. لذلك فإن منح الإذن أو سحبه يبقى بيد المستخدم وحده.
ونصح المليجي المستخدمين بإلغاء الأذونات فور الانتهاء من استخدامها.. وأكد أن هذا الإجراء مذكور صراحة في دليل الاستخدام الخاص بشركة “OpenAI”، حيث توصي الشركة بإيقاف أذونات الكاميرا والميكروفون بعد الانتهاء من المحادثة في “ChatGPT”.
هل يستخدم ChatGPT بيانات المستخدمين؟
أوضح المليجي أن “ChatGPT” لا يجمع بيانات المستخدمين الشخصية ولا يستخدم الكاميرا أو الميكروفون لجمع المعلومات.
وأضاف أن النموذج يحتفظ ببعض التفاصيل البسيطة التي يختار المستخدم مشاركتها، مثل الاسم أو الاهتمامات، وذلك لتحسين تجربة الاستخدام فقط.
ويمكن للمستخدم إيقاف حفظ هذه المعلومات من خلال إعدادات الخصوصية داخل التطبيق.
لماذا يشعر البعض أن ChatGPT “يرانا” أو “يسمعنا”؟
يعتقد البعض أن دقة إجابات “ChatGPT” تعني أنه يراقبهم، لكن الخبير يوضح أن السبب مختلف تمامًا.
فالنموذج تم تدريبه على كميات ضخمة من البيانات النصية من الإنترنت ومنصات التواصل الاجتماعي، ما منحه قدرة عالية على فهم سلوك الإنسان وتوقع تفضيلاته.
ومع استمرار الحوار بين المستخدم والأداة، تتطور استنتاجاتها وتصبح أكثر دقة في التفاعل، ما يجعل البعض يظن خطأ أنه “يقرأ أفكارهم”.
ما هي الضمانات القانونية لحماية الخصوصية؟
يقول المليجي إن القوانين التي تحكم الذكاء الاصطناعي ما زالت في مراحلها الأولى، إذ تطورت التقنية أسرع من الإطار القانوني.
ومع ذلك، تلتزم الشركات الكبرى مثل “OpenAI” بحماية البيانات من الاختراق، وتمنح المستخدمين حق “النسيان”، أي حذف المحادثات وعدم الاحتفاظ بها للأبد، وهو ما يُعد خطوة مهمة في حماية الخصوصية.
نصائح لحماية الخصوصية عند استخدام الذكاء الاصطناعي
شدد الخبير على ضرورة توخي الحذر الدائم عند التعامل مع تطبيقات الذكاء الاصطناعي.
ونصح المستخدمين بتقليل كمية البيانات التي يشاركونها، وعدم منح التطبيقات صلاحيات غير ضرورية.
كما دعا إلى مسح سجلات البحث بانتظام، وتجنّب ربط التطبيقات ببعضها أو مشاركة المعلومات الحساسة مع أي أداة رقمية.
أكد المليجي أن “ChatGPT” لا يملك أي وسيلة لرؤية أو سماع المستخدمين دون إذنهم.
وأن الخطر الحقيقي يكمن في الإهمال عند منح الأذونات أو مشاركة البيانات الشخصية
وبالتالي، فإن الوعي والحرص على الخصوصية يبقيان خط الدفاع الأول أمام أي تهديد رقمي محتمل.