“التزييف العميق”.. مخاطر كبيرة وتحركات دولية قبل تفاقم الأزمات
AI بالعربي – خاص
برزت تقنية التزييف العميق “Deep Fake” في السنوات الأخيرة كأحد أهم التقنيات وأكثرها إثارة للجدل في عالم الذكاء الاصطناعي. وتعتمد هذه التقنية على استخدام تقنيات التعلم الآلي لدمج مقاطع الفيديو والصوت لإنشاء محتوى مزيف يبدو حقيقيًا للغاية.
كيف يعمل التزييف العميق؟
تعتمد تقنية التزييف العميق على خوارزميات معقدة للتعلم الآلي تُدعى “شبكات الخصم التوليدية”. تُدرّب هذه الشبكات على كميات هائلة من البيانات، مثل مقاطع الفيديو والصور، لتعلم كيفية تحليل ملامح الوجه وتعبيرات الجسد وحركات الشفاه. وبمجرد تدريب الشبكة، يمكن استخدامها لإنشاء مقاطع فيديو جديدة تبدو وكأن شخصًا ما يقول أو يفعل شيئًا لم يفعله أبدًا. على سبيل المثال، يمكن استخدام “التزييف العميق” لوضع وجه شخص على جسم شخص آخر، أو جعله يقول أشياء لم ينطق بها.
الوهم الحقيقة
تُستخدم تقنية التزييف العميق بشكل متزايد في مجال الترفيه لإنشاء محتوى كوميدي أو ساخر. على سبيل المثال، تم استخدام “التزييف العميق” لوضع وجوه المشاهير على شخصيات أفلام كرتونية، أو لإنشاء مقاطع فيديو مزيفة تُظهر المشاهير وهم يرقصون أو يغَنون. بالإضافة إلى ذلك، يمكن استخدام “التزييف العميق” لنشر معلومات مضللة أو دعائية، مثل إنشاء مقاطع فيديو مزيفة تُظهر سياسيًا يدلي ببيانات كاذبة، أو جعل شخص ما يبدو وكأنه يدعم مرشحًا سياسيًا معينًا. كما يمكن استخدام “التزييف العميق” لارتكاب عمليات احتيال مالية، فعلى سبيل المثال، يمكن استخدامها لإنشاء مقاطع فيديو مزيفة تُظهر شخصًا ما يُعطي تعليمات بنقل الأموال، أو جعل شخص ما يبدو وكأنه يُقر بارتكاب جريمة.
مخاوف وتحديات
على الرغم من فوائدها العديدة، تُثير تقنية التزييف العميق مخاوف كبيرة بشأن إمكانية إساءة استخدامها في مجالات خبيثة، مثل: نشر الأخبار المزيفة والدعاية المُضللة، أو تشويه سمعة الأشخاص، أو حتى التلاعب بالنتائج. ويُعد تمييز المحتوى المزيف عن الحقيقي تحديًا كبيرًا، خاصة مع ازدياد دقة تقنيات التزييف العميق وتطورها المستمر.
مستقبل غامض
يُرجح خبراء التكنولوجيا أن تُصبح تقنية التزييف العميق أكثر انتشارًا في السنوات المقبلة، مما سيشكل تحديات جسيمة للمجتمعات والحكومات على حد سواء. ونظرًا لتأثيرها الكبير على الثقة والمعلومات، ستحتاج المجتمعات إلى تطوير أدوات فعالة لكشف المحتوى المزيف وتعزيز الوعي حول مخاطر هذه التقنية.
الحد من مخاطر التزييف العميق
وللحد من مخاطر “التزييف العميق” يعمل الاتحاد الأوروبي على تنظيم استخدام الذكاء الاصطناعي، وضمان استخدام هذه التكنولوجيا القوية بشكل مسؤول وأخلاقي. ولهذا وافق وزراء الاتحاد الأوروبي على قانون يعتبر الأول من نوعه على مستوى العالم، يهدف إلى موازنة الابتكار مع حماية حقوق الإنسان والسلامة العامة.
ويصنف القانون أنظمة الذكاء الاصطناعي إلى أربع فئات حسب مستوى المخاطر التي تشكلها، من غير مقبول إلى منخفضة المخاطر. كما يحظر القانون استخدام أنظمة الذكاء الاصطناعي لأغراض التصنيف الحيوي بناءً على العرق أو الدين أو التوجه الجنسي، وكذلك الأنظمة التي تستغل السلوك البشري أو تقيم الأشخاص بناءً على سماتهم الشخصية. ويسعى الاتحاد الأوروبي إلى إنشاء هيئة جديدة للإشراف على تطبيق القانون وفرض العقوبات على المخالفين، وغرامات تصل إلى 35 مليون يورو أو 7% من العائدات السنوية للشركة على المخالفات.
ويُتوقع أن يشجع القانون الاستثمار في تطوير أنظمة الذكاء الاصطناعي الآمنة والموثوقة، مع الحد من مخاطر إساءة استخدام هذه التكنولوجيا. كما يساعد القانون في حماية المستهلكين من التعرض لمحتوى ضار أو مضلل يتم إنشاؤه بواسطة الذكاء الاصطناعي. ومن المتوقع أيضًا أن يوفر القانون فرص عمل جديدة في مجالات مثل تطوير أنظمة الذكاء الاصطناعي والامتثال للقانون.