التزييف العميق خطر يهدد العالم
جون ثورنهيل
عندما كان فيرنر هرتسوغ يصور فيلمه الوثائقي “بيلز فروم ذا ديب” (أجراس من الأعماق) عن التصوف الروسي، دفع المال لاثنين من السيبيريين مقابل الاستلقاء على الجليد على بحيرة والتظاهر بأنهما يستمعان إلى دقات الأجراس من مدينة كيتيز الأسطورية المفقودة. دافع المخرج الألماني عن حيلته بإظهار أوجه الفرق بين الحقيقة الحرفية للمحاسبين والحقيقة الشعرية للفنانين.
تم إضفاء لمسة تكنولوجية جديدة على الجدل الدائم حول ما يشكل الصدقية الفنية مع إصدار فيلم عن أنتوني بوردين، الطاهي والكاتب الشهير. أثار مخرج الفيلم مورجان نيفيل غضب بعض الأصوليين السينمائيين بعد أن اعترف عرضا بأنه استخدم برنامجا تم تطويره بوساطة الذكاء الاصطناعي لتقليد صوت بوردين وهو يقرأ رسائل البريد الإلكتروني الخاصة التي كتبها قبل انتحاره في عام 2018.
غير أن بعض النقاد أعربوا عن سخطهم لأن الجمهور تم التلاعب به. من المؤكد أنه سيكون أكثر احتراما لو تم الإبلاغ عن استخدام الصوت الاصطناعي مسبقا، حتى لو كان استخدامه بالكاد يشكل جريمة كبرى. مع ذلك، هذه الحادثة تسلط الضوء على الكيفية التي يتغلغل بها ما يسمى التزييف العميق في ثقافتنا، في الأغلب بطرق غير محسوسة. وكما هو الحال مع عديد من الجوانب الأخرى لعالمنا الرقمي، فإن استخدامه يتطور من خلال مزيج فوضوي من القدرة التكنولوجية، والدوافع التجارية والسياسية، والتنظيم الحكومي والأعراف المجتمعية.
ظهر مصطلح التزييف العميق لأول مرة في عام 2017 في منشور على موقع ريديت يشير فيه إلى استخدام تقنيات الذكاء الاصطناعي من أجل التعلم العميق لإنشاء محتوى مزيف. ومنذ ذلك الحين، انتشر إنشاء النصوص الاصطناعية، والصور، والصوت، والفيديو بشكل مذهل. اكتشفت إحدى شركات الذكاء الاصطناعي العام الماضي أكثر من 85 ألف مقطع فيديو تستخدم التزييف العميق ويتم تداولها على الإنترنت. بعضها للترفيه، أو السخرية، أو الاستفزاز الفني. مثلا، أذهلت القناة الرابعة البريطانية المشاهدين في عام 2020 من خلال بث فيلم تزييف عميق للملكة إليزابيث وهي تقدم رسالة بديلة بمناسبة عيد الميلاد.
لكن كثيرا من محتوى التزييف العميق يضمر نيات شريرة. وجدت دراسة عام 2019 أن 96 في المائة من مقاطع الفيديو المزيفة كانت تتضمن مواد إباحية تم تبديل الوجوه فيها من دون رضا الشخصيات التي ظهرت فيها، وكانت تستهدف المشاهير أو نشطاء الحقوق المدنية. ويمكن أيضا استخدام تقنية التزييف العميق لإنشاء ملفات تعريف زائفة للصور، وأسطر ثانوية صحافية ومقالات اصطناعية، الشيء الذي يغذي المعلومات المضللة. في آذار (مارس) الماضي، حذر مكتب التحقيقات الفيدرالي من أن عملاء الدول الأجنبية على الأرجح سيستخدمون وسائل الإعلام الاصطناعية من أجل نشر الدعاية المضللة.
هناك أربع طرق رئيسة لمواجهة مثل هذه الاستخدامات المسيئة للتزييف العميق، على الرغم من أن أيا منها لا يقدم سوى حل جزئي. أولا، يمكن لشركات التكنولوجيا التي تحمل المحتوى نشر أدوات أكثر ذكاء لتحديد التزييف العميق المؤذي وحجبه. لكن من المرجح أن تحقق هذه الأدوات التكنولوجية “انتصارات عابرة”، وفقا لما ذكره نوح جيانسيراكوزا، مؤلف كتاب كيف تصنع الخوارزميات الأخبار المزيفة وتمنعها. ويصنع عديد من شبكات الخصومة التوليدية كثيرا من التزييفات العميقة، بحيث تضع شبكتين عصبيتين متنافستين في مواجهة بعضهما بعضا. وكما يوحي الاسم، ترقى العملية إلى سباق تسلح تكنولوجي لإنشاء محتوى أكثر موثوقية. ويقول جيانسيراكوزا “إنهم حرفيا يتعلمون كيفية تجنب اكتشافهم”.
ثانيا، تلعب الحوافز التجارية دورا كبيرا في الترويج للتزييف العميق ويمكن التأثير فيها. فقد تم تصميم الخوارزميات الخاصة بها من أجل توليد نقرات ومشاهدات لصفحات الإنترنت، وتمكين المحتوى الاصطناعي المثير من الوصول إلى قاعدة واسعة من الجماهير حتى مكافأة منشئيه بدولارات تأتي من عائدات الإعلانات. ويمكن لأصحاب الحملات على الإنترنت والمعلنين الضغط على هذه المنصات من أجل إعادة ضبط مبادئهم الأخلاقية.
ثالثا، ناقش المشرعون في الولايات المتحدة وأماكن أخرى تجريم أولئك الذين يستخدمون تقنية التزييف العميق بغرض التسبب في إيذاء الأفراد أو تعريض الأمن القومي للخطر. وأقرت المجالس التشريعية في كل من ولايتي كاليفورنيا وتكساس بالفعل قوانين تقيد استخدام الإعلام الاصطناعي أثناء الحملات الانتخابية. بل إن الاتحاد الأوروبي صاغ تشريعات تجبر الشركات على إبلاغ المستخدمين كلما تم استخدام تقنية الذكاء الاصطناعي في تقليد الإنسان. كل هذا يبدو جيدا من الناحية النظرية، لكنه قد يكون كابوسا عند تطبيقه على أرض الواقع.
أخيرا، هناك التكيف المجتمعي. يتحدث علماء السلوك عن تثقيف مستخدمي الإنترنت حول المحتوى المخادع “مسبقا” بدلا من محاولة كشفه بعد نشره. ويمكن القول إن الخطر الأكبر القادم من محتوى التزييف العميق هو أنه يضخم “أرباح الكاذبين”، ما يجعل الجميع يشككون في كل شيء ويقلل من قيمة الحقيقة. وكما أوضح عضو الكونجرس الأمريكي، آدم شيف “ليس فقط يمكن تمرير مقاطع الفيديو المزيفة على أنها حقيقية، ولكن يمكن تمرير المعلومات الحقيقية على أنها مزيفة”.
هكذا هي قابلية التكنولوجيا للتطويع وبراعة العقل البشري، حيث لا يمكن الفوز في الحرب ضد التزييف العميق المؤذي. ومع ذلك، فإن تأثير التزييف العميق يعتمد على طرق استخدامه، والسياقات التي يتم نشره فيها، وحجم الجمهور الذي يصل إليه. هذه جوانب لا تزال تستحق الطعن فيها.