الذكاء الاصطناعى يمكنه إنشاء أصوات مزيفة تخدع الأجهزة الذكية والبشر
AI بالعربي – متابعات
اختبر الباحثون في مختبر الأمن والخوارزميات والشبكات والبيانات (SAND) بجامعة شيكاغو الذكاء الاصطناعى ببرامج التزييف الصوتي العميق المتاحة على موقع مجتمع المطورين مفتوح المصدر Github لمعرفة ما إذا كان بإمكانهم فتح أمان التعرف على الصوت على Amazon’s Alexa و WeChat و Microsoft Azure.
ووفقا لما ذكرته صحيفة “ديلى ميل” البريطانية، تبين أنه يمكن للبرامج المتاحة بسهولة تقليد صوت شخص ما بمثل هذه الدقة التي يمكن أن تخدع كل من البشر والأجهزة الذكية، ويحتاج أحد البرامج، المعروف باسم SV2TTS، إلى خمس ثوانٍ فقط لعمل تقليد مقبول.
كما تم وصف SV2TTS بأنه “صندوق أدوات استنساخ الصوت في الوقت الفعلي”، وكان قادرًا على خداع Microsoft Azure في حوالي 30% من الوقت ولكنه خدع بشكل أكبر كل من WeChat و Amazon Alexa تقريبًا ثلثي الوقت، أو 63% من الوقت.
كما أن التقنية كانت قادرة على خداع آذان البشر، فتم خداع 200 متطوع طُلب منهم تحديد الأصوات الحقيقية من التزييف العميق حوالي نصف الوقت.
كان الصوت العميق أكثر نجاحًا في تزوير أصوات النساء وأصوات غير الناطقين باللغة الإنجليزية، وكتب الباحثون في تقرير نُشر على خادم الوصول المفتوح arxiv: “وجدنا أن كلاً من البشر والآلات يمكن أن ينخدع بشكل موثوق بالكلام الاصطناعي وأن الدفاعات الحالية ضد الكلام المركب ضعيفة”.
وأضاف الباحثون، “مثل هذه الأدوات في الأيدي الخطأ ستتيح مجموعة من الهجمات القوية ضد كل من البشر وأنظمة البرامج”.
يسمح WeChat للمستخدمين بتسجيل الدخول بأصواتهم، ومن بين الميزات الأخرى، تسمح أليكسا للمستخدمين باستخدام الأوامر الصوتية لإجراء مدفوعات لتطبيقات الطرف الثالث.
اختبرت فينجر وزملاؤها أيضًا برنامجًا آخر لتركيب الصوت، وهو AutoVC، والذي يتطلب خمس دقائق من الكلام لإعادة إنشاء صوت الهدف.
كان AutoVC قادرًا فقط على خداع Microsoft Azure في حوالي 15% من الوقت، لذلك رفض الباحثون اختباره ضد WeChat وAlexa.
وهناك العديد من برامج التزييف الصوتي القانونية في السوق، حيث أعلنت مؤخرا شركة Lyrebird، وهي شركة ناشئة مقرها سان فرانسيسكو، عن قدرتها على توليد الأصوات الاصطناعية الأكثر واقعية في العالم، وفي بيانها الأخلاقي، تعترف Lyrebird بأن برنامج تركيب الصوت “يحمل احتمال إساءة الاستخدام”.