الذكاء الاصطناعي والتزييف العميق حليف لعصابات الجريمة والاحتيال

25

AI بالعربي – متابعات

كشفت شركة “مايكروسوفت” مطلع فبراير، عن تفاصيل عملية قرصنة لبث تلفزيوني في دولة الإمارات، استخدم القراصنة فيها تقنيات التزييف العميق بواسطة الذكاء الاصطناعي لإظهار مذيع مفترض يقرأ تقريرا إخباريا مزيفاً يتناول الحرب بين إسرائيل وحماس في غزة، ويحاول التلاعب بمشاعر الرأي العام بالدولة الخليجية.

وفي الوقت ذاته، كانت ولاية نيوهامشير الأميركية شاهدة على عملية تزييف مشابهة باستخدام تقنيات الذكاء الاصطناعي لمخادعة، عبر استنساخ صوت الرئيس الأميركي، جو بايدن، في اتصالات هاتفية مزيفة دعت الناخبين إلى عدم المشاركة في الانتخابات الرئاسية التمهيدية.

وبين الواقعتين وقبلهما، شهد العالم عشرات الأحداث المشابهة التي تخللتها عمليات احتيال ومخادعة للجمهور بشكل عام أو للأفراد بصورة شخصية، كان المشترك الوحيد بينها، اعتمادها على الأدوات والإمكانات التي بات يتيحها الذكاء الاصطناعي لاسيما التوليدي منه، في عملية تزييف الحقائق والصور والأصوات، مما يضع العالم وجها لوجه أمام سيناريوهات مخيفة.

ولطالما حذر الخبراء من الدور الذي يمكن أن يلعبه التطور التقني للذكاء الاصطناعي في خدمة الجريمة والاحتيال الإلكتروني، وفي حماية العصابات والقراصنة من الكشف والملاحقة.

وبينما كانت المخاوف تتركز على دور الذكاء الاصطناعي في تطوير حملات التضليل ودعم الأخبار الزائفة للتلاعب بالجمهور والتأثير على الرأي العام وتزييف الحقائق بصورة شاملة، باتت المخاوف اليوم تتركز على ما يمكن أن يستهدف الأفراد والعائلات والشركات والكيانات بصورة خاصة وفردية وممنهجة، من قبل المحتالين والمبتزين باستخدام هذه التقنيات.

“من سيئ إلى أسوأ”

وبالنظر إلى الإمكانيات التي بات يوفرها الذكاء الاصطناعي تبدو المخاوف السابقة واقعية ومنطقية، بل وفي بعض الأحيان دون مستوى توقعات الخبراء في هذا المجال، الذين يرون أن ما يجري حالياً “ليس سوى البداية”.

وبحسب الخبير في التحوّل الرقمي وأمن المعلومات، رولان أبي نجم، فإن الذكاء الاصطناعي مع كل ما ينتج عنه حالياً “لا يزال في مرحلة البدايات، والتطور المقبل سيجعل كشفه أصعب بكثير، وتأثيره أكبر أيضاً”.

وأوضح: “سيصبح من المستحيل التمييز بين الحقيقة والتزييف”، وهو ما سينطبق على كل ما هو موجود على الإنترنت من فيديوهات، وصور، ونصوص، ومعلومات.

وأضاف في حديثه لموقع “الحرة”، أن الأمور تتجه “من سيئ إلى أسوأ”، في ظل التنامي والتطور اليومي لقدرات الذكاء الاصطناعي، مقابل التأخر العام عن المواكبة السريعة في تقنيات الكشف، وآليات المكافحة، وتشريعات التنظيم والمحاسبة.

وحذر أبي نجم من أن الذكاء الاصطناعي التوليدي لديه قدرة عالية على التزوير وعلى خداع الرأي العام وتسهيل عمليات احتيال كبيرة جداً.

من جانبه، يؤكد الخبير بالذكاء الاصطناعي والرئيس التنفيذي لشركة “Zaka” التكنولوجية، كريستوفر زغبي، أن أدوات الذكاء الاصطناعي أصبحت تمكن عصابات الاحتيال أكثر من القيام بعملياتهم، وتسهل الجرائم الإلكترونية وترفع وتيرتها.

وأضاف في حديث لموقع “الحرة”، أن “استخدام التكنولوجيا في عمليات الاحتيال والجرائم أمر سابق لظهور الذكاء الاصطناعي وأدواته التوليدية، وهو الحال مع كل تقنية جديدة يجري استخدامها”.

واستدرك: “إلا أن الذكاء الاصطناعي بات أداة أسرع وأقوى بكثير، وبالتالي هي تقدم أساليب أكثر إقناعاً وإتقاناً”.

وفي حين كان التزييف يصل إلى حد استنساخ الشكل وبعض الحركات أو إنتاج صور مزيفة، فإن الذكاء الاصطناعي، بحسب زغبي، جعل بالإمكان “استنساخ أسلوب الشخص في التحدث أو الكتابة، وتقليد سلوكه والتنبؤ بالأطباع والتصرفات بالإضافة إلى تزييف الصوت والصورة”، وهو ما بات يمكّن عصابات الاحتيال من أن يتحدثوا إلى معارف الشخص، أو زملاء العمل، أو أصدقائه، أو عائلته بأسلوبه والكلمات التي يستخدمها عادة.

احتيال بلا حدود

وكان العالم قد ضج بعملية احتيال أدت إلى خسارة شركة متعددة الجنسيات في هونغ كونغ نحو 26 مليون دولار أميركي بعد أن تعرض موظفوها لخداع من عصابة محتالين عبر مكالمة فيديو جماعية مزيفة عبر تقنية التزييف العميق، حيث انتحلوا شخصية المدير المالي للشركة وأشخاصاً آخرين في المكالمة، وأقنعوا الضحية بإجراء ما مجموعه 15 تحويلاً إلى 5 حسابات مصرفية، بحسب ما نقلت وكالة “بلومبيرغ”.

وبحسب “بلومبيرغ”، فإن أدوات تعديل الفيديوهات المدفوعة بالذكاء الاصطناعي فتحت مجالات أمام المحتالين كانت تعتبر آمنة في الماضي، مما يبرز سرعة تطور تقنية التزييف العميق خلال العام الماضي وحده، حيث أصبح الإعداد لعمليات الاحتيال المعقدة أسهل نسبياً، مما يدفع نحو عصر جديد من التشكيك.

ووفقاً لتقرير سابق نشره موقع “تالوس” بشأن كيفية استفادة المجرمين من التقدم الكبير لتقنيات الذكاء الاصطناعي، فإن تلك البرامج تساعد المستخدمين على إنشاء نصوص برمجية وتعديل الصور، وتبسيط عمليات المجرمين، وجعلها أكثر كفاءة وتطورا وقابلية للتوسع مع السماح لهم بالتهرب من الاكتشاف.

وتشمل الأعمال الخبيثة للمجرمين نشر المعلومات المضللة، وتعديل الصور بهدف الابتزاز الجنسي، وإنشاء برامج ضارة وخبيثة، وفقا لمتخصصين بقطاع التكنولوجيا والأمن السيبراني.

ويتطرق كل من أبي نجم والزغبي في حديثهما، للعديد من الأمثلة على ما يجري من جرائم تعتمد التزييف العميق باستخدام الذكاء الاصطناعي، من بينها عمليات تزييف الخطف، وذلك من خلال اتصالات مزيفة تتضمن مقاطع صوتية مستنسخة للضحايا المفترضين، بغية ابتزاز عائلاتهم والحصول على فدية مالية.

وكذلك بالنسبة إلى عمليات الاحتيال التي تقوم على تزييف طلب صديق أو قريب أو فرد من العائلة، للأموال بصورة عاجلة من خلال اتصالات وهمية أو فيديوهات أو مقاطع صوتية مفبركة بالتزييف العميق لخداع الضحايا.

وأصدرت لجنة الاتصالات الفيدرالية الأميركية في الثامن من فبراير الجاري، قرارا يحظر “فوريا” المكالمات الآلية الاحتيالية التي تتضمن أصواتا مزيفة تم إنشاؤها بواسطة الذكاء الاصطناعي، واتخذت إجراءات صارمة بشأن ذلك.

وتمنح هذه الخطوة المدعين العامين المزيد من الأدوات القانونية، لملاحقة المتصلين الآليين غير القانونيين الذين يستخدمون الأصوات الناتجة عن الذكاء الاصطناعي لخداع الأميركيين.

وقالت رئيسة لجنة الاتصالات الفيدرالية، جيسيكا روزنورسيل، في بيان: “تستخدم الجهات السيئة الأصوات التي يولدها الذكاء الاصطناعي في مكالمات آلية غير مرغوب فيها لابتزاز أفراد الأسرة الضعفاء، وتقليد المشاهير، وتضليل الناخبين”، مضيفة “نحن ننبه المحتالين الذين يقفون وراء هذه المكالمات الآلية”.

ومع تزايد قدرات أدوات التوليد الآخذة بالتطور، ما عادت عمليات التزييف والاحتيال تقتصر على جانب أو تنحصر بحدود أو نطاق، وإنما باتت تطال كافة جوانب الحياة الرقمية والتعاملات عبرها.

فعلى سبيل المثال، يمكن لأي شخص اليوم عبر “الويب المظلم” أن يحصل على هوية مزيفة صادرة عن أي دولة في العالم، تحاكي تلك الحقيقية، مقابل دولارات قليلة، بحسب ما يؤكد زغبي، ويتم استخدامها على نطاق واسع في عمليات التوثيق والتحقق التي تجري عبر الإنترنت باستخدام صور الهويات وجوازات السفر.

وعليه يمكن اليوم لأي جهة أن تخلق حسابات وهمية على مواقع التواصل الاجتماعي بصور أشخاص غير موجودين فعلياً مولدة بتقنيات الذكاء الاصطناعي، مرفقة بهويات تعريف خاصة بهم، وتحويلهم إلى أشخاص موجودين وموثقين، وفقاً لزغبي، الذي يلفت إلى توفر مواقع تقدم هذه الخدمة، من خلال تقديم وجوه بملامح غير موجودة في الحقيقة لاستخدامها.

وبدوره، يشير أبي نجم إلى أن هذه الهويات والأوراق الثبوتية المزورة بحرفية عالية وبأدق التفاصيل عبر تقنيات الذكاء الاصطناعي، “تستخدم على نطاق واسع على مواقع ومنصات تداول العملات الرقمية، حيث يطلب من المستخدمين صور عن جوازات سفرهم ليتعرفوا إليهم”.

ويعود ذلك لكون العملات الرقمية المشفرة تستخدم في عمليات الابتزاز والاحتيال، وبالتالي “لتجنب إبراز هويات حقيقية (بطاقات شخصية أو جوازات سفر) يلجؤون إلى مواقع تصدر هذا النوع من الهويات، مقابل 15 دولاراً، ويرسلونها إلى منصات التداول التي لا تملك الداتا (البيانات) الموجودة في المطارات للتأكد من صحة الجوازات والأوراق الثبوتية فيتم استغلال هذه الثغرة”، وفق أبي نجم.

وكذلك، لفت الخبير في الأمن السيبراني إلى أساليب احتيال جديدة باستخدام تقنيات التزييف العميق، تقوم على تزييف إعلانات لمشاهير وشخصيات معروفة، مثل مارك زوكربرغ أو إيلون ماسك، وهم يروجون لتطبيق أو منتج معين عبر الحديث عنه والادعاء أنهم يستخدمونه أو ينصحون به، من أجل كسب ثقة الناس والاحتيال عليهم.

كذلك أشار أبي نجم إلى ظاهرة ما يسمى “AI إنفلونسرز”، وهم عبارة عن حسابات لأشخاص غير موجودين في الحقيقة صورهم وشخصيتهم بالكامل مولدة عبر الذكاء الاصطناعي، يؤدون دور المؤثرين، ويقومون بأعمال تسويق وعرض أزياء ومنتجات وخدمات وما إلى ذلك، ولديهم متابعين بمئات الآلاف وعملاء يعملون معهم، وأشخاص يحاولون التحدث إليهم أو التقرب منهم، في حين أنهم غير موجودين في الحقيقة.

التزييف العميق الآني.. أمر واقع

وما عاد التزييف يقتصر فقط على المحتوى المنتج مسبقاً، إذ باتت تقنيات الذكاء الاصطناعي تتيح التزييف المباشر أو الآني، الذي يتم في الوقت الحقيقي، حيث يمكن تزييف اتصالات صوتية أو فيديو في لحظة إجراء المكالمة، مما يفرض مزيداً من التحديات والتهديدات، ويزيد من فرص استفادة المجرمين والمحتالين.

وبينما كانت هذه التقنية أقرب إلى قصص أفلام الخيال العلمي، فإن إمكانية تنفيذها تقنيا اليوم أصبحت أمرا واقعاً، بحسب ما يؤكد الخبراء.

ولفت زغبي إلى أن التزييف العميق الآني لا يزال صعب التنفيذ، لكنه أكد أنه أصبح قابلاً تقنيا للتحقيق،” فيحتاج إلى تقنيات متقدمة ومكلفة وجهد كبير لاستنساخ الصوت والصورة وملاءمتها مع الحركات خلال إجراء الاتصال أو البث، ولكن تقنياً الأمر مقدور عليه”.

وفي مثال على ذلك، يستشهد أبي نجم ببرامج وتطبيقات “الفلتر” للصور والفيديوهات، مؤكداً أنها نوع من أنواع التزييف الآني للوجوه وأشكالها، لافتاً إلى أن إصدار شركة آبل من النظارات الذكية تحمل دليلاً أيضاً على القدرة التقنية على التزييف العميق الآني، حيث تتيح تلك النظارات تبديل صورة وجه الشخص الذي تتحدث إليه على أرض الواقع في اللحظة نفسها.

وفي هذا السياق، قالت وكالة بلومبيرغ إنه “يكاد يكون يقيناً أن عملية الاحتيال التي وقعت في هونغ كونغ، استخدمت التزييف العميق الآني، مما يعني أن المدير المزيف كان يماشي حركات المحتال في إنصاته وحديثه وإيماءاته خلال الاجتماع”.

وفي هذا الصدد، قال أستاذ علم الجريمة في جامعة ولاية جورجيا، ديفيد مايمون، إن المحتالين عبر الإنترنت “يستخدمون التزييف العميق الآني في مكالمات الفيديو منذ العام الماضي على الأقل، في عمليات احتيال أصغر، ومنها الخداع العاطفي”.

عجز عن المواجهة

وأمام التطور التقني الذي يقدمه الذكاء الاصطناعي لعمليات التزييف، لا يبدو أن الأدوات المتاحة حالياً وفي المدى المنظور قادرة على كشف ذلك التزييف أو المحتوى المولد بالذكاء الاصطناعي بصورة حاسمة، وفقاً للخبراء.

ويجزم الزغبي بعدم وجود قدرة تقنية على كشف التزييف المولد بالذكاء الاصطناعي، إذ لا يزال من الصعب مكافحة هذه الأدوات أو كشفها، “خاصة أن هذه التقنيات في طور التقدم والتحسن يوماً بعد يوم، مما يجعل كشفها أصعب، وبالتالي ما من حل تقني متاح حالياً للاستخدامات السلبية لهذه الأدوات”.

وتابع: “فيسبوك حاولت قبل عام تقريباً إجراء منافسة من أجل تدريب الذكاء الاصطناعي لكشف التزييف المولد عبر الذكاء الاصطناعي، لكنهم لم يصلوا إلى نتيجة بفعالية عالية، وبالتالي لا يزال الاعتماد الأكبر على التدقيق البشري الأكثر جدوى في رصد التزييف العميق والهفوات التي قد تظهر فيه”.

ويتأسف الخبير بالذكاء الاصطناعي لكون “أغلب الجمهور غير مدرب أو قادر أو مستعد لتدقيق كل ما يتلقاه في العالم الرقمي من معلومات ومحتوى، وثمة فئات لا تعلم بأمر التزييف وتقنياته من أصلها.. وسيتابع هؤلاء حياتهم دون التوقف عند صحة ما يتلقونه، وهنا ستكمن المشكلة”.

وبدوره، أكد أبي نجم أن الناس لن تكون قادرة على تمييز ما ينتج عبر الذكاء الاصطناعي وما هو حقيقي في العالم الرقمي، مضيفاً “اليوم وصلنا إلى مرحلة نحتاج فيها إلى روبوتات الذكاء الاصطناعي لكشف إنتاجات الذكاء الاصطناعي”.

وتابع: “كل ذلك ولم نصل بعد إلى مرحلة الكوانتوم كومبيوتر، الأسرع بملايين المرات عما لدينا اليوم، حينها سيكون الذكاء الاصطناعي مرعب، وسيكون من الاستحالة التمييز بين الحقيقة والتزييف، وهنا التأثير الكارثي”.

أما عن سبل المواجهة المتاحة، فهي ببساطة غير موجودة، بحسب ما يؤكد أبي نجم، مضيفاً أن اتجاه الجرائم الإلكترونية على مدى أكثر من 30 عاماً من عمر الإنترنت “كان تصاعدياً واستمر دون تراجع حتى اليوم، بالرغم من محاولات أطراف عدة لوضع تنظيمات وتشريعات وقوانين تضبط تلك الجرائم “دون جدوى، فليس للجرائم الإلكترونية حدود جغرافية معينة لضبطها”.

وتابع: “فلنتفرض أن الاتحاد الأوروبي أتم تشريعاته المرتبطة بضبط استخدام الذكاء الاصطناعي، ماذا عن باقي الدول؟ ماذا عن الصين مثلاً أو كوريا الشمالية؟ كيف سينجح فرض تلك القوانين عليهم أو التحكم بما ينتج هناك؟.. يمكن وضع القوانين لكن تطبيقها ليس بالسهولة نفسها”.

ورأى زغبي أن الناس بحاجة لهذا النوع من التشريعات لكي يتم ضبط استخدامات هذه الأدوات المتاحة اليوم أمام الجميع، من قبل جهات موثوقة لدى الناس.

في المقابل، اعتبر أبي نجم أن سرعة التشريع “لا تناسب السرعة التي تتطور بها تلك التقنيات، فما يتم تشريعه اليوم، يختلف واقعه غداً”.

ويخلص الخبراء إلى أن السبيل الوحيد لمواجهة مخاطر وتأثيرات هذه التقنيات هو “الوعي التام، وعدم الثقة بكل ما يتلقونه من محتوى رقمي عبر الإنترنت”، داعين الناس إلى عدم تصديق كل ما لا يرونه مباشرة بالعين، وليس بالصوت والصورة أو عبر الإنترنت.

وأردف أبي نجم: “حتى بالجانب الشخصي، مثل اتصالات مع ارقام نعرفها أو فيديوهات أو مقاطع صوتية لأشخاص نعرفهم، ما عاد بالإمكان الثقة بكل ما هو رقمي”.

واعتبر أنه أصبح مطلوباً اليوم من كل شخص أن يكون مدقق معلومات وحقائق، “وهذا يحتاج إلى تثقيف وتدريب”.

نصائح عامة

وكانت وكالة “بلومبيرغ” قد نشرت في تقرير عدداً من النصائح التي من شأنها أن تساعد في كشف التزييف العميق الآني على وجه الخصوص، الذي قد يكون الأكثر استخداماً في عمليات الاحتيال في الفترة المقبلة، أبرزها:

– استخدام الإشارات البصرية للتحقق من هوية المتحدث، إذ أن التزييف العميق الآني لا يزال عاجزاً عن تمثيل حركات معقدة، لذا يمكن في حالة الشك الطلب من الطرف الآخر، خلال مكالمة الفيديو، أن يلتقط كتاباً على مقربة منه، أو أن يؤدي حركة ليست معتادة في هذه المكالمات.

– مراقبة حركة الفم، حيث من الممكن أن يظهر عدم التناغم في تزامن حركة الشفاه مع الكلمات أو في تعبيرات الوجه الغريبة التي ليست ناجمةً عن خللٍ اعتيادي في الاتصال.

– استخدام مصادقة متعددة المصادر، خاصة في الاجتماعات ذات الطبيعة الحساسة، ولا بأس بالتأكد من هوية المحدث عبر محادثة جانبية عبر البريد الإلكتروني أو الرسائل النصية أو تطبيق مصادقة بغرض التثبت من هوية المشاركين.

– استخدام قنوات آمنة أخرى لتأكيد القرارات وتبادل المعلومات الحساسة، مثل تطبيقات الرسائل المشفرة.

– التحديث الدائم للبرامج والتطبيقات، لاسيما تلك الخاصة بمكالمات الفيديو لضمان توفر أحدث الخصائص الأمنية المدرجة للكشف عن التزييف العميق.

– تجنب منصات مكالمات الفيديو غير المعروفة، حيث يفضل اختيار منصات معروفة تتمتع بإجراءات أمنية قوية نسبياً، خصوصاً في الاجتماعات التي تتسم بالحساسية.

– الانتباه للتصرفات والأنشطة المثيرة للريبة، مثل الانتباه إلى الطلبات العاجلة لتحويل الأموال، والاجتماعات التي تُعقد فجأة وتشمل قرارات مهمة، وتغير نبرة شخص ما أو لغته أو أسلوبه في الكلام.

– كما يستخدم المحتالون عادةً أساليب ضغط، لذا يجب الحذر أيضاً من أي محاولة لتسريع التوصل إلى قرار.

اترك رد

Your email address will not be published.