كيف نواجه استخدام تقنيات الذكاء الاصطناعي في التضليل المعلوماتي؟
تود هيلمز
مع تطور تقنيات الذكاء الاصطناعي، باتت عملية تزييف الحقائق ونشر المعلومات المضللة أكثر تعقيداً وشيوعاً في العالم من خلال نشر صورة أو مقطع فيديو أو نص تمت مشاركته على وسائل التواصل الاجتماعي، لينقل فكرة أو شعوراً معيناً للتأثير على الرأي العام. من هنا، سعت دراسة للكاتب تود هيلمز إلى توضيح كيف يتم ذلك التزييف، وأسبابه، والأهم آليات مواجهته، في ظل المخاوف من عواقب الترويج للمعلومات المضللة على المستويين المحلي والدولي.
حملت الدراسة التي نشرتها مؤسسة راند الأمريكية في يوليو 2022، عنوان “الذكاء الاصطناعي: التزييف العميق وتزييف الحقائق”، إذ تحلل مخاطر هذا التزييف من خلال حالات استهداف روسيا لانتخابات الولايات المتحدة لعام 2016، وكذلك الصين للمتظاهرين في هونغ كونغ، فضلاً عن المشككين في فعالية لقاحات فيروس كورونا عام 2019، كذلك تناولت الدراسة طريقة عمل تقنيات التزييف، مشيرة إلى كونها فيديوهات تحمل لقطات معدلة صناعياً يتم فيها تعديل الوجه أو الجسم المصور رقمياً لتظهر كشخص أو شيء آخر.
تقنيات التزييف:
أبرزت الدراسة تنوع تقنيات واستخدامات الذكاء الاصطناعي في نشر المعلومات المضللة، من أبرزها ما يلي:
• تقنية الفيديوهات المفبركة “Deepfakes Videos”: إذ تحتاج الفيديوهات المزيفة لدرجة عالية من الدقة واستخدام متقن للوسائل التكنولوجية، بالإضافة إلى توافر الوقت اللازم والإمدادات المالية وأيضاً للمهارة الفردية، واستشهدت الدراسة بالفيديو الخاص بالممثل الأمريكي توم كروز الذي انتشر على تطبيق التيك توك، وحظى بأكثر من ١٥,٩ مليون مشاهدة، وتطلب هذا الفيديو استخدام تقنيات الذكاء الاصطناعي على كثير من الفيديوهات الخاصة بالممثل المشهور والتدرب على إنشائه لمدة شهرين.
تناولت الدراسة أيضاً عدداً من المواقع الشهيرة التي تسمح بالتلاعب بالصور والمقاطع، منها موقع Reface الذي يسمح للمستخدمين بمبادلة الوجوه في مقاطع الفيديو وملفات GIF الحالية؛ وموقع MyHeritage الذي يحرك صور الأقارب المتوفين؛ وZao التطبيق الصيني الذي يستخدم تقنية deepfake للسماح للمستخدمين بوضع وجوههم على شخصيات شهيرة.
• تقنية نسخ الصوت Voice Cloning: وهي طريقة يتم من خلالها التلاعب بالحقائق، حيث تسمح العديد من التطبيقات عبر الإنترنت والهواتف المحمولة للمستخدمين القيام بمحاكاة أصوات المشاهير، مثل تطبيقات Celebrity Voice Cloning وVoicer Famous AI Voice Changer، واستشهدت الدراسة بواقعة تلاعب برئيس تنفيذي لإحدى شركات الغاز والذي صرَّح بأنه تلقى اتصالاً من شخص انتحل صوت مديره يطلب منه تحويل ٢٢٠ ألف يورو لحساب بنكي في المجر.
• تقنية الصور المزيفة Deepfakes Images: إذ تأتي هذه الصور على شكل لقطة مصورة لوجه شخص تبدو حية للغاية على الرغم من كونها غير حقيقية، مشيراً لواقعة قيام مسؤول في إدارة الرئيس الأمريكي السابق دونالد ترامب بتركيب صورة للباحثة الروسية كاتي جونز، الباحثة في الشأن الروسي والأوراسي بمركز الدراسات الاستراتيجية والدولية، على حساب في اللينكدإن متصل بشبكة حسابات صغيرة للتأثير في الرأي العام.
• تقنية النصوص المفتعلة Generative Text: إذ يتم استخدام نماذج اللغة الموجودة بأجهزة الكمبيوتر لإنشاء النصوص المختلفة، وهي التي يمكن أن يستغلها الخصوم الأجانب للولايات المتحدة لعمل دعاية لغرض ما على نطاق واسع، مشيراً لما نشرته جريدة الجارديان في مقال بعنوان “هل أصابك الخوف بعد، يا بشر؟” مدعية بأن من قام بكتابته هو إنسان آلي مستخدماً معجماً لغوياً مدرباً على استخدام الكلمات، وتبرز الدراسة خطورة انتشار مثل هذه الظواهر في المجتمعات المختلفة ومخاطر تأثيرها على الأمن القومي حال استخدامها كسلاح من قبل الخصوم أو الجهات الضارة.
أسباب متعددة:
ثمة أسباب متعددة لاستخدام تقنيات الذكاء الاصطناعي في نشر المحتوى المزيف من أبرزها:
• التلاعب بالانتخابات من خلال نشر مقطع فيديو يظهر مرشحاً يشارك في فعل شائن أو يدلي ببيان مثير للجدل.
• زرع الانقسامات الاجتماعية، مثلما قامت روسيا بنشر الدعاية الموجهة لتقسيم الجمهور الأمريكي ومهاجمة وتشويه سمعة الأطراف السياسية المعارضة.
• نزع الثقة في المؤسسات والسلطات، بنشر فيديو يدعي ممارسة ضابط شرطة العنف ضد مواطنين أو قاض يناقش بشكل خاص طرق التحايل على النظام القضائي.
• تقويض الصحافة والمؤسسات الإخبارية البارزة ومصادر المعلومات الجديرة بالثقة، بالإضافة لزرع الفتنة حتى في القنوات الشرعية والمسؤولة عن الأخبار والمعلومات.
وأبرزت الدراسة العواقب الوخيمة الناتجة عن انتشار تقنيات تزييف الحقائق بالنسبة للأشخاص الذين يعيشون في الدول النامية، إذ تسهم المعلومات المضللة في زيادة مستويات العنف العرقي كما يبرز ضد مسلمي ميانمار والهند، إثيوبيا. ومع ضعف الإمكانات المخصصة لمواجهة مثل هذه الظواهر في تلك الدول، فثمة احتمالية لعدم اكتشاف التضليل الممنهج في مثل هذه المناطق، وأشارت الدراسة إلى أن تطبيق فيس بوك نفسه يخصص فقط 13% من ميزانيته للإشراف على المحتوى المقدم للمستخدمين خارج الولايات المتحدة الأمريكية، كما تعاني التطبيقات الأخرى والمستخدمة بشكل شائع في تلك المناطق مثل تطبيق واتساب المعلومات الخاطئة.
مع ذلك، تؤكد الدراسة أنه لاتزال هناك فرصة لتجنب العواقب الوخيمة لاستخدام التقنيات في التضليل لعدة أسباب، منها سطحية المقاطع المنشورة على المواقع الإلكترونية، حيث يتم تغييرها يدوياً أو تحريرها بشكل انتقائي لتضليل الجمهور، وارتفاع تكلفة إنشاء محتوى فيديو واقعي لحاجته لمعدات عالية التكلفة، وعدم توفر المحتوى المعلوماتي اللازم لإنشاء الصور والفيديوهات المركبة والتدريب على إنشائها، بالإضافة لغياب المهارة التقنية والمتخصصة.
أيضاً تفتقر مقاطع الفيديو المزيفة الحالية للجودة العالية، على الأقل في الوقت الحالي، حيث لازالت بعيدة عن متناول الهواة، كما تفتقد لعنصري الوقت والجهد اللازمين للخصوم الأجانب لإنشاء مقاطع الفيديو المزيفة، خاصة أن إنشائها يستغرق شهوراً، مما يتيح للولايات المتحدة والمجتمع الاستخباراتي من دول الحلفاء الفرصة للتعرف على الجناة والوصول لمخططاتهم قبل نشر تلك المقاطع، ناهيك عن اقتصار نشر مقاطع الفيديو المزيفة حالياً على فئة المشاهير والسياسيين لعدم توافر بيانات وصور الأشخاص العاديين مما يحد من قدرة الخصوم على إنشاء مقاطع مزيفة وعالية الجودة لأفراد أقل شهرة، وفي ظل هذه العوامل من المحتمل أن يتم القبض على الجاني وأن يدفع تكلفة كبيرة سواء من خلال ضغط دولي أو عقوبات اقتصادية نتيجة أفعاله، بالتالي سيحتاج الخصوم لموازنة التكاليف السياسية والاقتصادية والأمنية في قراراتهم قبل نشر المعلومات المضللة.
منهجيات المواجهة:
شددت الدراسة على أهمية الأخذ في الاعتبار عامل الوقت في مواجهة تقنيات التزييف، لأنه ليس في صالح المجتمع الدولي، مشيرة إلى أنه مع مرور الوقت، سيصبح إنشاء مقاطع الفيديو المزيفة أسهل وأسرع، وستعتمد على بيانات وصور أقل بكثير من الوقت الحالي، كما سيأتي اليوم الذي يمكن فيه للأفراد إنشاء صور مزيفة وتبدو واقعية باستخدام تطبيقات الهواتف الذكية فقط، وسيكون من الصعب اكتشافها، ومثل هذه العوامل ستؤدي حتماً لزيادة عدد الجهات المشاركة في ابتكار ونشر المحتوى المزيف، وهو ما سيقلل بدوره من إمكانية القبض على الجناة أو دفع الثمن الجيوسياسي الناتج عنه، لذلك، طرحت الدراسة بعض المبادرات والمنهجيات المتبعة حالياً التي قد تحد من تهديد سلامة المعلومات وصحتها، ومنها:
• منهجية الكشف عن المقاطع المزيفة Detection: وهي عبارة عن تكنولوجيات وبرامج معينة تسهم في الكشف على مقاطع الفيديو المزيفة مثل استخدام العلامات المائية أو وضع التحذيرات المضمنة في البيانات الوصفية للصور أو المقطع، وبالتالي يمكن لها أن تحدد ما إذا كانت الصور التي تم إنشاؤها أصلية أم مزيفة.
• منهجية المصدر الأصلي للصور أو مقاطع الفيديو Provenance: وهي تقنية الاعتماد على المصدر الموثق من خلال الكشف عن مصدر الصور الرقمية، كما يمكن تحميل المعلومات المهمة في البيانات الوصفية للصورة الرقمية بحيث عند النقر عليها سيكشف الرمز عن الصورة الأصلية ويحدد أي تعديلات تم إجراؤها عليها، وأكدت الدراسة أن تلك المنهجية ستساهم في بناء الثقة في المؤسسات الاخبارية الشرعية.
• منهجية تفعيل المبادرات والقوانين المنظمة Regulatory Initiatives: أي إنشاء قوانين جنائية واللجوء لاعتماد مشاريع قوانين تنظيمية لمواجهة التزييف للحقائق، مثلما قامت ولاية تكساس عام 2019، حيث أصدرت قانوناً من شأنه أن يجعل من غير القانوني توزيع مقاطع فيديو مزيفة تهدف إلى إيذاء مرشح أو التأثير على نتيجة الانتخابات في غضون 30 يوماً من الانتخابات، وذلك على مستوى الولايات الأمريكية كافة.
• منهجية استخدام التقنيات الذكية والصحفية مفتوحة المصدر Open-Source Intelligence Techniques and Journalistic Approaches: أي الاعتماد على تطوير ومشاركة أدوات مفتوحة المصدر لاستخدامها في تحديد المحتويات المزيفة والمعلومات المضللة، وتعد هذه الأدوات مهمة بشكلٍ خاص للصحفيين الذين يمثلون المنظمات الإخبارية الصغيرة والمتوسطة الحجم، نظراً لاعتمادهم عليها للتحقق من صحة المحتوى المبلغ عنه، وأشارت الدراسة إلى واحدة من أكثر الأدوات التي يتم الاستشهاد بها بشكل متكرر وهي البحث العكسي عن الصور، حيث يتم التقاط شاشة الصورة أو الفيديو بجهاز أخر وتشغيلها من خلال منصة البحث العكسي عن الصور من Google والذي يقوم بدوره بالبحث عن جوانب المحتوى المشبوه وإذا تم تزويره.
• منهجية برامج محو الأمية الإعلامية Media Literacy: وهي تسهم في مساعدة الجماهير على أن تكون فضولية بشأن مصادر المعلومات المقدمة، وتقييم مصداقيتها، والتفكير بشكل منطقي في المعروض.
واختتمت الدراسة بتوصيات يمكن أن تساهم في الحد من استخدام تقنيات الذكاء الاصطناعي في نشر المعلومات المضللة، منها:
• يجب على الحكومات ومنصات التواصل الاجتماعي وأصحاب المصلحة من القطاع الخاص مواصلة الاستثمار في تكنولوجيا الكشف عن استخدامات تقنيات الذكاء الاصطناعي لتزييف الحقائق واتخاذ خطوات أخرى لتعزيزها.
• تقويض فرص الجناة من الوصول لأجهزة الكشف عن التزييف العميق عالية الجودة التي تمولها الحكومة والاحتفاظ بها بعيداً للحفاظ على الأمن القومي.
• أهمية استمرار جهود محو الأمية الإعلامية على مسارين؛ الأول، تعزيز تلك الجهود بتوفير التدريب القائم على الأدلة والترويج له على المستويات كافة مع توعية الجماهير للتمييز بين الحقيقي والمزيف، أما المسار الثاني، فهو تحذير الجماهير من استخدامات التكنولوجيا المتقدمة وآفاق استخدامها لنشر المعلومات المضللة، وزرع عدم الثقة في أي محتوى غير معلوم المصدر.
• يجب على وزارة الخارجية الأمريكية دعم مبادرات محو الأمية الإعلامية في الخارج بصورة أكبر، خاصة في مناطق، مثل أوروبا الشرقية، التي تستهدفها الدعاية الروسية بشكل كبير.