نظام الذكاء الاصطناعى في يوتيوب يستخدم تسميات توضيحية لا تناسب الأطفال

33

AI بالعربي – متابعات

تضيف خوارزمية الذكاء الاصطناعي التي يستخدمها يوتيوب تسميات توضيحية إلى المقاطع تلقائيًا، والتى أدخلت لغة إباحية عن طريق الخطأ في مقاطع فيديو الأطفال، فتم العثور على النظام، المعروف باسم ASR (النسخ التلقائي للكلام)، يعرض كلمات لا تناسب الأطفال فمثلا كتبت porn  (أباحية) بدلا من corn (ذرة)، ولتتبع المشكلة بشكل أفضل، أخذ فريق من معهد روتشستر للتكنولوجيا في نيويورك، مع آخرين عينات من 7000 مقطع فيديو من 24 قناة أطفال من الدرجة الأولى.

ووفقا لما ذكرته صحيفة “ديلى ميل” البريطانية، فإن من بين مقاطع الفيديو التي أخذوها عينات، كان لدى 40% كلمات “غير لائقة” في التسميات التوضيحية، وكان لدى 1% كلمات غير لائقة للغاية.

ونظر الباحثون إلى مقاطع فيديو الأطفال على الإصدار الرئيسي من يوتيوب، بدلاً من منصة YouTube Kids، التي لا تستخدم التسميات التوضيحية المكتوبة تلقائيًا، حيث كشفت الأبحاث أن العديد من الآباء لا يزالون يضعون الأطفال أمام الإصدار الرئيسي.

وقال الفريق إنه باستخدام نماذج لغوية ذات جودة أفضل، والتي تُظهر مجموعة متنوعة من طرق النطق، يمكن تحسين النسخ التلقائي.

ويتضمن ذلك التعليقات المضافة بواسطة الذكاء الاصطناعي إلى مقاطع الفيديو، والمصممة لتحسين إمكانية الوصول للأشخاص الذين يعانون من ضعف السمع، والعمل دون تدخل بشري.

ووجدوا أن “أنظمة التعرف التلقائي على الكلام (ASR) المعروفة قد تنتج محتوى نصيًا غير ملائم للغاية للأطفال أثناء نسخ مقاطع فيديو YouTube Kids“.

يقول الفريق الذي يقف وراء الدراسة الجديدة أنه من الممكن حل هذه المشكلة باستخدام نماذج لغوية تقدم نطاقًا أوسع من النطق للكلمات الشائعة.

كانت خوارزمية يوتيوب على الأرجح تضيف كلمات مثل عاهرة “bitch” و “bastard” بدلاً من المصطلحات الأكثر ملاءمة.

اترك رد

Your email address will not be published.