AI بالعربي – متابعات
تواصل شركة “ميتا” تطوير منظومة الحماية الرقمية على منصاتها الاجتماعية، مع إطلاق أدوات ذكاء اصطناعي متقدمة تستهدف الحد من عمليات الاحتيال الإلكتروني. تأتي هذه الخطوة في ظل تزايد اعتماد المحتالين على تقنيات رقمية أكثر إقناعًا وتأثيرًا على المستخدمين حول العالم.
تسعى الشركة إلى جعل الاحتيال أكثر صعوبة بالنسبة للمحتالين، وأكثر وضوحًا وسهولة في الاكتشاف للمستخدمين. يعكس هذا التوجه استراتيجية تقنية تركز على الوقاية الاستباقية بدلًا من المعالجة بعد وقوع الضرر.
تعتمد الأدوات الجديدة على تحليل الأنماط السلوكية للحسابات المشبوهة. تظهر تحذيرات فورية عند إرسال أو استقبال طلبات صداقة غير مألوفة. يتم ذلك عندما لا توجد روابط اجتماعية مشتركة أو عندما تظهر بيانات جغرافية متضاربة. هذه المؤشرات تمنح المستخدم فرصة للتفكير قبل التفاعل مع الحساب.
في تطبيق “ماسنجر”، توسعت قدرات كشف الرسائل الاحتيالية لتشمل نطاقًا جغرافيًا أوسع. أصبح النظام أكثر دقة في تحديد الرسائل التي تتضمن عروض عمل غير موثوقة أو طلبات مالية مشبوهة. يقترح التطبيق إجراء فحص ذكي للمحادثة باستخدام أدوات الذكاء الاصطناعي عند الاشتباه.
إذا اكتشف النظام محاولة احتيال محتملة، تظهر إرشادات واضحة للمستخدم حول علامات الخطر. توفر المنصة خيارات سريعة لحظر الحساب أو الإبلاغ عنه. تهدف هذه الإجراءات إلى تقليل الوقت الذي يحتاجه المستخدم لاتخاذ قرار وقائي.
في جانب الإعلانات الرقمية، تعمل “ميتا” على تعزيز برنامج التحقق من هوية المعلنين. تستهدف الشركة أن تصل نسبة الإيرادات الإعلانية القادمة من جهات موثوقة إلى 90% بحلول نهاية عام 2026. تبلغ هذه النسبة حاليًا نحو 70%. يعزز هذا التحول الثقة في البيئة الإعلانية ويقلل من فرص التلاعب أو الاحتيال التجاري.
تتجاوز جهود الحماية نطاق المنصات الرقمية لتشمل تعاونًا مباشرًا مع جهات قانونية دولية. شاركت “ميتا” في عمليات مشتركة مع مكتب التحقيقات الفيدرالي ووزارة العدل الأميركية والشرطة التايلاندية. أسفرت هذه العمليات عن تعطيل أكثر من 150 ألف حساب مرتبط بشبكات احتيال منظمة. كما أدت إلى تنفيذ 21 عملية اعتقال مرتبطة بأنشطة احتيالية عابرة للحدود.
كشفت الشركة كذلك عن إزالة أكثر من 159 مليون إعلان احتيالي خلال العام الماضي. تم حذف نحو 92% من هذه الإعلانات قبل أن يبلغ عنها أي مستخدم. يعكس ذلك قدرة أنظمة الذكاء الاصطناعي على التدخل المبكر والحد من انتشار المحتوى الضار.
في السياق ذاته، أغلقت المنصة نحو 10.9 مليون حساب على “فيسبوك” و”إنستغرام” ثبت ارتباطها بمراكز احتيال إجرامية. يمثل هذا الرقم مؤشرًا على حجم التحديات الرقمية التي تواجه شركات التكنولوجيا الكبرى في العصر الحالي.
يشير خبراء الأمن الرقمي إلى أن المحتالين أصبحوا أكثر اعتمادًا على أدوات الذكاء الاصطناعي التوليدي. تساعد هذه الأدوات في إنشاء رسائل مقنعة وصور مزيفة ومحتوى يصعب تمييزه عن الحقيقي. لذلك تمثل طبقات الحماية الجديدة خطوة مهمة نحو تعزيز سلامة المستخدمين.
تعزز هذه التقنيات مفهوم الحماية الرقمية الاستباقية. لا تضمن الأدوات الجديدة القضاء الكامل على الاحتيال الإلكتروني، لكنها ترفع مستوى الوعي وتزيد فرص اكتشاف الخطر في وقت مبكر. يعتمد نجاح هذه المنظومة أيضًا على وعي المستخدم وسلوكه الرقمي اليومي.
مع استمرار تطور تقنيات مثل ChatGPT وأنظمة OpenAI وغيرها من الحلول الذكية، تتزايد الحاجة إلى استراتيجيات أمنية أكثر مرونة. تسعى الشركات التقنية إلى تحقيق توازن بين الابتكار التقني وحماية الخصوصية. يمثل هذا التوازن عاملًا حاسمًا في بناء ثقة المستخدمين في المنصات الرقمية مستقبلًا.
تؤكد هذه التطورات أن الذكاء الاصطناعي لم يعد مجرد أداة إنتاج أو ترفيه. أصبح عنصرًا أساسيًا في حماية المجتمعات الرقمية من التهديدات المتنامية. يعكس ذلك تحولًا استراتيجيًا في دور التكنولوجيا من مجرد وسيط تواصل إلى حارس أمان رقمي فعّال.








