تقارير

الذكاء الاصطناعي يكتب رسائل احتيال أفضل من البشر

AI بالعربي – “متابعات”

أثارت قدرة تقنيات الذكاء الاصطناعي المستخدمة في معالجة اللغات الطبيعية قلق الباحثين من استخدامها في صياغة محتوى رسائل البريد الإلكتروني الاحتيالية بجودة مرتفعة.

وأثار ذلك القلق من اعتماد المحتالين مستقبلاً على تقنيات الذكاء الاصطناعي، إلى جانب الخدمات المتاحة بأسعار منخفضة والتي قد تساعدهم على صياغة الرسائل الاحتيالية. وتحديداً رسائل التصيّد”Publishihng”.

هجمات الاحتيال

وخلال فعاليات مؤتمر Black Hat and Defcon في مدينة لاس فيغاس. عرض فريق تابع إلى الوكالة الحكومية للتكنولوجيا في سنغافورة نتائج تجربة قد تم تنفيذها.

وقد اعتمدت التجربة على إرسال رسائل تصيّد عبر البريد الإلكتروني. وهو نوع من أشهر أنواع هجمات الاختراق. كما أن الهدف الرئيسي من هذه الرسائل هو دفع المستلم للضغط على الرابط الضار الموجود فيها، وفق ما نقل موقع “البوابة العربية للأخبار التقنية”.

وتم إرسال تلك الرسائل إلى 200 شخص لا يعلمون بالتجربة. وجزء من هذه الرسائل كانت مكتوبة بشكل بشري، أي من خلال أعضاء الفريق. والجزء الآخر كان مكتوب من طرف الذكاء الاصطناعي.

في المقابل، الروابط الموجودة في هذه الرسائل ليست بروابط ضارة بالطبع، إلا أنها كانت تبلغ الفريق بعدد مرات الضغط عليها.

كما يمكنك أن تتوقع، نجحت الرسائل المكتوبة من طرف تقنيات الذكاء الاصطناعي في تحقيق عدد أكبر من مرات الضغط على الرابط المخادع مقارنةً بالرسائل التي كتبها البشر، أكبر بنسبة كبيرة.

من جانبه، صرّح الفريق بأن تطوير نموذج ذكاء اصطناعي قادر على تقديم مستوى مرتفع هو أمر يكلف ملايين الدولارات، وهو أمر يناسب الشركات الضخمة أو الحكومات، وليس الأفراد.

سهولة الاستخدام مستقبلاً

من ناحية أخرى، قد لا يحتاج المخادعين لتطوير أنظمة كاملة. وبدلًا من ذلك، يمكنهم استخدام خدمات الذكاء الاصطناعي المعدة مسبقًا، والتي يمكن التعامل معها بسهولة وبدون الحاجة لمعرفة برمجية.

كما يمكن استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر مثل OpenAI وغيرها.

وخلال التجربة استخدم الفريق نموذج OpenAI GPT-3 إلى جانب الاعتماد على خدمات AI أخرى متاحة، وكانت هذه الخدمات تساعد على فهم وتحليل الشخصية المستهدفة، وذلك ليسهل خداعها.

ورغم النتائج والأرقام الممتازة التي تم تحقيقها ضمن هذه التجربة. إلا أن الفريق المسؤول قد أوضح أن حجم العينة المستهدفة والذي كان 200 شخص فقط لا يكشف عن نتائج نهائية، وفي حالة تكرار نفس التجربة على عينة أكبر فقد تختلف النتائج.

كما أن الرسائل التي تمت كتابتها من طرف أشخاص حقيقيون ضمن التجربة قد لا تكون بنفس مستوى الرسائل المكتوبة من طرف مخادعين محترفين. إلا أن الباحثين قد أشادوا بمستوى احترافية الرسائل التي كتبها الـAI.

close


اشترك ليصلك كل جديد

نحن لا نرسل البريد العشوائي! اقرأ سياسة الخصوصية الخاصة بنا لمزيد من المعلومات.

المصدر
العربية.نت

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى