حراس المحتوى الخفيون.. من يقرر ما يُعرض وما يُمنع في التطبيقات؟

حراس المحتوى الخفيون.. من يقرر ما يُعرض وما يُمنع في التطبيقات؟

AI بالعربي – خاص

عندما تتصفح تطبيقًا رقميًا، سواء كان منصة تواصل أو بث فيديو أو محرك بحث، فإن ما يظهر أمامك ليس نتيجة عشوائية، بل قرار مدروس اتخذته آليات تصفية وتقييم وتحكّم تعمل خلف الكواليس. هنا يظهر ما يُعرف بـ “حراس المحتوى الخفيون”، وهم — أفرادًا أو خوارزميات — من يحددون ما يُعرض عليك وما يُمنع، دون أن تراهم أو تعرف معاييرهم.

يعمل هؤلاء الحراس في مساحات رمادية تجمع بين الرقابة التقنية والسياسات الأخلاقية، ويُشكّلون خط الدفاع الأول أمام المحتوى المخالف، أو غير المناسب، أو الذي يُصنّف على أنه خطير سياسيًا أو ثقافيًا. وفي كثير من الحالات، لا يكون القرار واضحًا أو موضوعيًا، بل يخضع لمزيج من التعليمات الداخلية، الحسابات التجارية، والضغوط السياسية.

تتولى هذه المهام عادة فرق من “المشرفين على المحتوى”، يعملون في غرف مغلقة حول العالم، يتعرضون لسيل يومي من الصور والنصوص والفيديوهات التي يُطلب منهم تقييمها خلال ثوانٍ. وبالرغم من اعتماد المنصات على الذكاء الاصطناعي لرصد المحتوى، فإن القرار الأخير — خاصة في الحالات الحساسة — يعود للبشر.

لكن هذا النظام يطرح إشكاليات ضخمة. فمن الذي يضع المعايير؟ ولماذا تُحذف منشورات بعينها بينما تبقى أخرى مثيرة للجدل؟ ومن يضمن ألا تتحول هذه العملية إلى رقابة انتقائية تخدم مصالح تجارية أو أيديولوجية؟ كل هذه الأسئلة تُعيد النظر في علاقة المستخدم بالمحتوى، ليس كمُتلقي فقط، بل كمواطن رقمي يُشكّل وعيه تحت تأثير سياسات غير مرئية.

تشير تقارير حقوقية إلى أن آلاف العاملين في مجال الإشراف على المحتوى يعانون من آثار نفسية عميقة نتيجة تعرضهم المستمر لمواد صادمة، مثل العنف أو الكراهية أو الانتحار. ومع ذلك، يبقون غير مرئيين في السردية العامة التي تروّج للمنصات كمجالات “مفتوحة وحرة”. بينما في الحقيقة، كل ما تراه يمر أولًا من بوابة خفية لا يُعلن عنها كثيرًا.

وفي الخلفية، تلعب الخوارزميات دورًا أكثر تعقيدًا، فهي لا تمنع فقط، بل تُرجّح وتُبرز وتُقصي بناءً على معايير التفاعل والربح واللغة والموقع الجغرافي وحتى الجهاز المستخدم. وهكذا، يصبح المستخدم محاطًا بفقاعة من المحتوى المصمّم خصيصًا له، بناءً على معايير لا يعلمها ولا يمكنه التحكم بها.

وبينما تدّعي الشركات أن خوارزمياتها “محايدة”، إلا أن القرارات المتعلقة بالحذف أو الترويج تُبنى أحيانًا على مفاهيم مرنة مثل “التحريض”، “الذوق العام”، أو “سلامة المجتمع”، وهي مفاهيم قابلة للتأويل والاستخدام السياسي. وهذا ما يجعل الرقابة الرقمية أخطر من الرقابة التقليدية، لأنها لا تُعلَن، ولا تُحاسب، ولا تُشعَر المستخدم بأنها حدثت أصلًا.

ومع تصاعد النقاشات العالمية حول حرية التعبير والرقابة الرقمية، يصبح من الضروري التفكير في آليات شفافة، تتيح للمستخدمين معرفة لماذا حُذِف محتواهم، أو لماذا لم يظهر ما كانوا يبحثون عنه. فالمعركة لم تعد على المحتوى فقط، بل على من يملك حق تعريفه وتحديد مكانه في الفضاء الرقمي.

اقرأ أيضًا: صحافة النوايا.. هل يمكن التنبؤ بالأخبار قبل أن تحدث؟

 

اترك رد

Your email address will not be published.