
AI بالعربي – متابعات
كشفت وثائق مسرّبة من شركة “Meta” عن تفاصيل دقيقة لآلية تدريب روبوتات الدردشة الذكية التابعة لها على التعامل مع قضايا استغلال الأطفال عبر الإنترنت.
تعليمات صارمة لتجنّب الانتهاكات
الوثائق المسرّبة أوضحت أن المتعاقدين مع الشركة يتبعون إرشادات واضحة تفرض على الروبوتات رفض أي طلبات ضارة أو غير قانونية تتعلق بالقُصّر.
كما تسمح هذه الإرشادات فقط بالنقاشات التعليمية أو الوقائية حول الموضوع في سياق أكاديمي أو توعوي.
خلفية التحقيقات الأميركية
يأتي هذا التسريب في وقت تُجري فيه هيئة التجارة الفيدرالية الأميركية “FTC” تحقيقات واسعة مع شركات الذكاء الاصطناعي الكبرى، من بينها Meta وOpenAI وGoogle، حول سبل حماية الأطفال من المخاطر الرقمية الناتجة عن التفاعل مع الأنظمة الذكية.
تغيّر في السياسة السابقة
تُظهر الوثائق اختلافًا واضحًا عن الإصدارات القديمة التي كانت تتسامح مع بعض العبارات غير المناسبة.
فقد تضمنت الإرشادات السابقة عبارات مثل:
“من المقبول إشراك الطفل في محادثات عاطفية” أو وصف الطفل بأنه “عمل فني”.
لكن التحديث الجديد ألغى هذا التساهل نهائيًا.
ما الذي يُسمح للروبوتات بفعله؟
وفق النسخة الجديدة، يمكن للروبوتات:
- مناقشة قضايا استغلال الأطفال في إطار توعوي.
- شرح مفهوم “التغرير” أو الـGrooming بشكل علمي.
- تقديم نصائح اجتماعية غير جنسية للمراهقين.
ما الذي يُحظَر عليها؟
تُمنع روبوتات Meta من:
- أي حوار أو تمثيل دور ذي طابع جنسي مع قاصر.
- تبرير العلاقات بين الأطفال والبالغين.
- تقديم معلومات عن الوصول إلى مواد إساءة الأطفال.
- عرض أي محتوى يصوّر الأطفال بطريقة جنسية.
أهمية الخطوة
تمثّل هذه التعديلات تحوّلًا في نهج شركات التقنية الكبرى نحو بناء ذكاء اصطناعي أكثر أمانًا ومسؤولية، بعد الانتقادات الواسعة لضعف الرقابة الأخلاقية في بعض النماذج السابقة.
كيف نحمي أطفالنا من مخاطر الذكاء الاصطناعي؟
ينصح الخبراء بما يلي:
- التحدث مع الأطفال حول ماهية الذكاء الاصطناعي وأهدافه.
- تفعيل أدوات المراقبة الأبوية في الأجهزة والمنصات.
- متابعة تحديثات الأمان الصادرة عن الشركات والهيئات التنظيمية.
- تعليم الأطفال الإبلاغ عن أي محتوى أو سلوك غير مريح فورًا.