Facebook X Instagram TikTok

تحذير للـمستخدمين: أدوات ذكاء اصطناعي تنتهك بياناتك دون علمك

0

تحذير للـمستخدمين: أدوات ذكاء اصطناعي تنتهك بياناتك دون علمك

AI بالعربي – متابعات

في ظل الثورة التي تُحدثها تقنيات الذكاء الاصطناعي في مختلف جوانب حياتنا من العمل والتعلّم وحتى التواصل، يتزايد الاعتماد على نماذج اللغة الكبيرة LLMs والأدوات التوليدية مثل “ChatGPT” وأشباهه، والتي توفّر للمستخدمين مستويات غير مسبوقة من الكفاءة والراحة. إلا أن هذا التقدم قد يأتي أحيانًا على حساب الخصوصية.

تقرير جديد صادر عن “إنكوغني” Incogni يكشف تفاصيل دقيقة حول كيفية تعامل أبرز منصات الذكاء الاصطناعي مع بيانات المستخدمين، ويُبرز تباينات كبيرة في مستويات الشفافية وحماية المعلومات.

بين الابتكار والانتهاك

مع التوسع الكبير في استخدام أدوات الذكاء الاصطناعي، نادرًا ما يتساءل المستخدمون: من يطّلع على ما أكتبه؟ وأين تذهب تلك البيانات؟ تعتمد هذه الأدوات غالبًا في تحسين أدائها على البيانات المُدخلة من قِبل المستخدمين، لكن تختلف آليات استخدام تلك البيانات من منصة لأخرى.

وفي هذا السياق، قامت “إنكوغني” بتحليل تسع منصات رئيسية باستخدام 11 معيارًا مختلفًا يتعلق بالخصوصية، وذلك لتقييم مدى التزام كل منصة بحماية بيانات مستخدميها.

منصات تجمع بين الأداء والخصوصية

  1. Le Chat (Mistral AI)
    تصدّرت هذه المنصة التصنيف بفضل جمعها المحدود للبيانات، وإتاحتها خيار عدم مشاركة البيانات مع نموذج الذكاء الاصطناعي. ورغم أن الشفافية لم تكن مثالية، إلا أنها تُعتبر الأفضل من حيث احترام الخصوصية.
  2. ChatGPT (OpenAI)
    احتلت “ChatGPT” المرتبة الثانية، نظراً لسياساتها الواضحة التي تسمح للمستخدمين بإلغاء مشاركة المحادثات مع النظام، بالإضافة إلى توفير وثائق خصوصية سهلة الوصول والفهم.
  3. Grok (xAI)
    جاء نموذج “Grok” من شركة “xAI” في المرتبة الثالثة، حيث أظهر أداءً جيدًا في حماية البيانات، مع وجود بعض القصور في جانب الشفافية ومشاركة البيانات.

كما جاءت نماذج “Claude” من شركة “Anthropic” قريبًا في التصنيف، وإن أُثيرت حولها بعض المخاوف المتعلقة بطريقة تعاملها مع بيانات المستخدمين.

المراتب الأدنى: التكنولوجيا في مواجهة الخصوصية

في ذيل القائمة، جاءت كبرى شركات التقنية، حيث احتلت “Meta AI” المرتبة الأخيرة، تلتها “Gemini” التابعة لـ”Google” و”Copilot” من “Microsoft”. وبيّنت الدراسة أن هذه المنصات لا توفر خيارًا للمستخدمين لتعطيل استخدام محادثاتهم لأغراض التدريب، كما أنها تشارك البيانات داخليًا وأحيانًا خارجيًا، مع اعتمادها على سياسات خصوصية عامة وغير واضحة في التعامل مع بيانات الذكاء الاصطناعي.

المعايير المستخدمة في التصنيف

استند تصنيف “إنكوغني” إلى ثلاث فئات رئيسية من المعايير، لتكوين صورة شاملة حول كيفية تعامل المنصات مع بيانات المستخدمين:

  • أولًا: استخدام بيانات التدريب
    يقيس هذا المعيار ما إذا كانت المنصة تستخدم محادثات المستخدمين في تدريب النماذج، وما إذا كان بإمكان المستخدم الانسحاب من هذا الاستخدام. وقد أظهرت النتائج أن منصات مثل OpenAI وMicrosoft وMistral وxAI تتيح هذا الخيار، في حين لا توفّره منصات مثل Google وMeta وDeepSeek وPi AI، ما يثير مخاوف تتعلق بحرية المستخدم. بالمقابل، تميزت نماذج “Claude” بعدم استخدامها بيانات المستخدمين لأغراض التدريب على الإطلاق.
  • ثانيًا: الشفافية
    يُقيّم هذا المعيار مدى وضوح المنصات في شرح سياسات جمع البيانات واستخدامها. نالت OpenAI وAnthropic وMistral وxAI أعلى التقييمات، بينما جاءت Microsoft وMeta في مراتب أدنى، ولجأت Google وDeepSeek وPi AI إلى استخدام وثائق مطوّلة وغامضة.
  • ثالثًا: جمع البيانات ومشاركتها
    ركز التقييم على كمية ونوعية البيانات التي تجمعها المنصات، وإمكانية مشاركتها مع أطراف خارجية. تفوقت Le Chat وPi AI بجمع الحد الأدنى من بيانات الأجهزة المحمولة، بينما جمعت Meta AI وGemini وGrok بيانات حساسة كالصور والموقع الجغرافي وأرقام الهواتف، وقامت بمشاركتها أحيانًا.

تطبيقات الهواتف المحمولة: وجه آخر للمخاطر

نظرًا لاعتماد عدد كبير من المستخدمين على تطبيقات الهاتف الذكي للتفاعل مع الذكاء الاصطناعي، شمل تقرير “إنكوغني” أيضًا تحليلًا لإصدارات iOS وAndroid الخاصة بكل منصة.

وقد أظهر التحليل تفاوتًا كبيرًا في كمية البيانات التي تجمعها هذه التطبيقات. احتل “Le Chat” و”Pi AI” المراتب الأولى بخصوص الالتزام بالخصوصية، حيث جمعا أقل قدر ممكن من البيانات، مما جعلهما أكثر أمانًا.

أما “ChatGPT” فصُنّف ضمن الفئة المتوسطة من حيث جمع البيانات. في حين جاءت “Meta AI” في ذيل الترتيب، نظرًا لجمعها كميات كبيرة من المعلومات الحساسة ومشاركتها أحيانًا مع جهات خارجية.

ما أهمية هذا التصنيف؟

لا يقتصر هذا التصنيف على كونه ترتيبًا فنيًا، بل يُعد أداة توعوية وتنظيمية تخدم المستخدمين وصانعي القرار على حد سواء.

  • أولًا: توعية الأفراد
    يوفر التصنيف مرآة واضحة لسياسات كل منصة، مما يساعد المستخدمين على اتخاذ قرارات أكثر وعيًا حول المنصات التي يتعاملون معها.
  • ثانيًا: تحفيز الشفافية
    يشكل التصنيف ضغطًا مجتمعيًا يدفع الشركات إلى تحسين سياسات الخصوصية، وتوفير أدوات أكثر وضوحًا للمستخدم.
  • ثالثًا: دعم السياسات العامة
    يزوّد الجهات التنظيمية بمعلومات دقيقة وموثوقة تسهم في صياغة تشريعات متوازنة وحديثة لمواكبة تطور الذكاء الاصطناعي.

ماذا يمكن للمستخدم أن يفعل؟

يوفر التقرير مجموعة من التوصيات العملية للمستخدمين لتعزيز خصوصيتهم:

  • اختيار منصات تتيح التحكم في مشاركة البيانات مثل “Le Chat”، “ChatGPT”، و”Grok”.
  • مراجعة إعدادات الخصوصية وتفعيل خيار الانسحاب من مشاركة البيانات.
  • التدقيق في أذونات التطبيقات قبل تثبيتها، خاصة تلك المتعلقة بجمع البيانات الحساسة مثل الموقع أو الصور.

الخلاصة: الخصوصية لا يجب أن تكون ثمن الابتكار

رغم ما تحققه أدوات الذكاء الاصطناعي من تقدم، فإن تقرير “خصوصية الذكاء الاصطناعي 2025” يؤكد أن الخصوصية ليست متساوية بين جميع المنصات. الرسالة واضحة: اختر أدوات تضع خصوصيتك في المقام الأول، وادعم السياسات التي تضع حدًا للانتهاكات، وساهم في بناء مستقبل رقمي يحترم الحقوق الفردية دون المساومة على الأمان.

اترك رد

Your email address will not be published.