شركة “جوجل” تستغل رسائل العملاء لتطوير الذكاء الاصطناعي

شركة "جوجل" تستغل رسائل العملاء لتطوير الذكاء الاصطناعي

AI بالعربي – متابعات

في الوقت الذي تعمل فيه شركة جوجل على تطوير خدمات الذكاء الاصطناعي في المزيد من المنتجات التي تقدمها للمستخدمين، رجح تقرير جديد أن تأتي هذه “اللمسة الشخصية على حساب خصوصية المستخدمين”، بحسب موقع “cointelegraph”.

ومع قرار جوجل في تقديم خدمات الذكاء الاصطناعي للشركات والأفراد، ستكون هناك مميزات في تطبيق الرسائل الخاصة بها، وكذلك في تطبيق “Bard” الذي سيوفر ميزات تشبه “ChatGPT” لمستخدمي أندرويد.

وتتضمن هذه الخدمات تسهيل الاتصال وتعزيز الإبداع، إضافة لتوفير المعلومات، بحيث يكون مساعد الذكاء الاصطناعي الشخصي الخاص بك داخل تطبيق المراسلة.

لكن، مثل كل أدوات الذكاء الاصطناعي المتوفرة، فإن لديها أيضًا مخاطر كبيرة.

في هذا السياق، تشير التقارير إلى ممارسات “مشبوهة” لجوجل لتطوير الذكاء الاصطناعي عبر انتهاك كبير لخصوصية مستخدميها.

وتقول التقارير إن “Bard” سيقوم بتحليل المحتوى الخاص بالرسائل، الذي من المفترض أن يساعد الذكاء الاصطناعي في فهم المحتوى بشكل أفضل، وحتى نغمة الرسالة التي ترسلها.

علامة حمراء

يقول التقرير: “يمكننا جميعًا أن نتفق على أن تخصيص الذكاء الاصطناعي يحتاج إلى مطابقة استجابتك بناءً على الشخص الذي تتحدث معه”.

وسيحاول الذكاء الاصطناعي أيضًا فهم علاقتك مع جهة الاتصال من خلال قراءة سجل الرسائل أيضًا، وهي بمثابة علامة حمراء رئيسية أخرى، بحسب الموقع.

ويستبعد التقرير أيضًا “ألا تقوم جوجل بتأمين الرسائل من خلال التشفير الشامل، وهو ما يعد مرة أخرى عيبًا كبيرًا في وجود تطبيقات وميزات تتمحور حول الذكاء الاصطناعي، والتي تحتاج إلى بيانات لتدريب أنماطها لمعرفة اهتماماتك وحتى أسلوب مراسلتك والتعرف عليها”.

الخصوصية في دائرة الضوء

ويتابع التقرير أن “سجل جوجل فيما يتعلق بالبيانات مثير للجدل، وهذا التطور يعيد مرة أخرى مسألة خصوصية المستخدم إلى دائرة الضوء”.

ويشير إلى أن “شركة أبل التي تأخذ وقتها في صنع برمجيات الذكاء الاصطناعي الكبيرة، من المحتمل أن تبقي الخصوصية على رأس قائمة مهامها”.

وتقول التقارير إن شركة أبل ستأخذ وقتها مع الذكاء الاصطناعي، ولكن على الأقل يمكن التأكد من أن جميع عمليات المعالجة تتم على الجهاز، ما يمنحها مصداقية أفضل من مشاركة البيانات والمحتوى عبر الخوادم لمزيد من البحث والتدريب.

وأكد الموقع أن “جوجل مطالبة بالإجابة عن الأسئلة الصعبة، مع حصول المزيد من منتجاتها على معالجة الذكاء الاصطناعي”، في وقت سينتظر فيه خبراء الخصوصية رؤية استراتيجيتها الشاملة لمعالجة هذه المخاوف.

Related Posts

دراسة تحذر من استخدام الذكاء الاصطناعي معلومات طبية خاطئة

AI بالعربي – متابعات نشرت جامعة جبل سيناء في نيويورك دراسة جديدة تشير إلى أن أدوات الذكاء الاصطناعي قد تتعامل مع المعلومات الطبية الخاطئة بوصفها صحيحة، عندما تأتي بصياغة توحي…

الذكاء الاصطناعي و”Model Inversion”.. استرجاع البيانات من النموذج: هل يمكن سرقة ما تدرب عليه؟

AI بالعربي – متابعات مع توسع استخدام نماذج الذكاء الاصطناعي في مجالات حساسة مثل التعرف على الوجوه، التحليل الطبي، والتوصيات الشخصية، برز تهديد تقني مقلق يُعرف باسم “Model Inversion Attack”…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 293 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 319 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 428 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 474 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 466 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 576 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر