عملية احتيال بالذكاء الاصطناعي باستخدام صورة الممثل الفرنسي الراحل “آلان ديلون”

5

AI بالعربي – متابعات

كشفت إحدى عمليات الاحتيال استخدام صورة الفنان الفرنسي آلان ديلون الذي توفي 18 أغسطس الجاري، لاستقطاب مستخدمي الإنترنت إلى أحد المتاجر الإلكترونية، وأظهرت الزيارات أن عملية الاحتيال تم تصفّحها أكثر من مليوني مرة على شبكات التواصل الاجتماعي.

وفي مقطع فيديو نُشر عبر حساب في منصة “إكس” يحارب عمليات الاحتيال عبر الإنترنت، تم انتحال هوية الفنان باستخدام صوته وصورته.

ويقول الصوت المفبرك للفنان في مقطع الفيديو: “إذا كنت تشاهد هذا الفيديو، فأنا مُتّ أصلاً، وسأعطيك مئة ألف يورو إذا لم تتمكن من الفوز في المتجر الخاص بي عبر الإنترنت”.

ورغم أن هذا الإعلان الكاذب الذي تم تعطيله، لكن لا تزال هناك مقاطع فيديو أخرى للفنان تعيد توجيه مستخدمي الإنترنت إلى المتجر.

وأكدت شركة “ميتا” أنّ مقطع الفيديو مخالف لقواعد المنصة بعدم نشر إعلانات تتضمّن صورًا لشخصيات عامة بطريقة مضللة من أجل محاولة الاحتيال على متصفحي الإنترنت.

وأوضحت “ميتا” أنها أنشأت نماذج تهدف تحديدًا إلى رصد أي محتوى يلقى انتشارًا بفضل استخدامه صور مشاهير، للتصدي بشكل أفضل لمحتويات مماثلة.

وتغذّي ظاهرة “التزييف العميق” أي المحتوى المزيّف باستخدام الذكاء الاصطناعي والذي ينتشر عبر الإنترنت، موجة من المعلومات المضللة تطال عددًا كبيرًا من الشخصيات، من بينهم النجمة تايلور سويفت، والتي تثير القلق قبل الانتخابات الرئاسية الأميركية.

اترك رد

Your email address will not be published.