
AI بالعربي – متابعات
في خطوة تعزّز السلامة الرقمية، أعلنت شركة “ميتا” عن إطلاق أدوات تحكم أبوية جديدة تتيح للآباء إدارة تفاعلات أطفالهم مع روبوتات الدردشة العاملة بالذكاء الاصطناعي. ومن المقرر أن تبدأ هذه المزايا بالعمل مطلع العام المقبل.
إيقاف الدردشات الفردية بين المراهقين والذكاء الاصطناعي
ستسمح “ميتا” للآباء بإيقاف المحادثات الخاصة بين المراهقين وشخصيات الذكاء الاصطناعي تمامًا، لمن يفضّل منع أبنائه من التواصل الفردي مع هذه الشخصيات الرقمية.
حظر شخصيات ذكية محددة
ولمن لا يرغب في إيقاف جميع المحادثات، يمكن للآباء حظر روبوتات دردشة معينة. بذلك، يمكن السماح للمراهق بالتفاعل مع بعض الشخصيات واستثناء أخرى.
“رؤى” عامة دون الوصول إلى المحادثات الكاملة
سيتمكّن الآباء من الحصول على “رؤى عامة” حول المواضيع التي يناقشها أطفالهم مع روبوتات الذكاء الاصطناعي، دون الاطلاع على نصوص المحادثات بالكامل، مما يحافظ على الخصوصية ويضمن الإشراف الأسري.
استمرار المساعد الذكي العام دون تعطيل
لن يتمكّن أولياء الأمور من تعطيل المساعد الذكي العام التابع لـ”ميتا”، إذ تؤكد الشركة أنه سيبقى متاحًا لتقديم معلومات مفيدة وفرص تعليمية، مع تفعيل حماية افتراضية تتناسب مع عمر المستخدمين.
محتوى متوافق مع معيار “PG-13”
تعتمد “ميتا” في تصميم تفاعلات الذكاء الاصطناعي مع المراهقين على معايير “PG-13” التي تضمن بقاء الردود مناسبة للفئة العمرية، ومنع ظهور محتوى غير ملائم.
إطلاق تدريجي في الأسواق العالمية
ستبدأ الشركة بإطلاق الأدوات الجديدة عبر “إنستغرام” في الأسواق الناطقة بالإنجليزية أولًا، مثل الولايات المتحدة والمملكة المتحدة وكندا وأستراليا، قبل التوسع إلى أسواق أخرى لاحقًا.
تعزيز منظومة الأمان الحالية
تأتي هذه الخطوة استكمالًا لإجراءات الأمان المفعّلة في حسابات المراهقين لدى “ميتا”، والتي تشمل تقييد المحتوى، وتحديد من يمكنه التواصل معهم، وإدارة وقت الاستخدام للحفاظ على توازن صحي في التفاعل الرقمي.
دوافع القرار وتزايد الانتقادات
تواجه “ميتا” في الأشهر الأخيرة انتقادات متزايدة تتعلق بسلامة الأطفال على منصاتها، بعد تقارير أشارت إلى تفاعلات غير مناسبة بين روبوتات الذكاء الاصطناعي وبعض المستخدمين القُصّر، ما دفعها إلى تعزيز سياساتها الرقابية.
منافسة متصاعدة مع شركات الذكاء الاصطناعي الأخرى
يتزامن إعلان “ميتا” مع جهود شركات مثل “OpenAI” التي تعمل على تطوير أدوات تحكم أبوية مشابهة في “ChatGPT”، استجابةً لضغوط قانونية متزايدة تدعو إلى رفع مستوى الأمان في تطبيقات الذكاء الاصطناعي الموجهة للمراهقين.