ميتا تتخذ إجراءًا جديدًا للسيطرة على المعلومات المضللة والذكاء الاصطناعي

ميتا تتخذ إجراءًا جديدًا للسيطرة على المعلومات المضللة والذكاء الاصطناعي

AI بالعربي – متابعات

تعتزم شركة ميتا الأميركية العملاقة وضع تصنيف خاص للتعرف إلى الأصوات والصور ومقاطع الفيديو الناتجة من الذكاء الاصطناعي على شبكاتها الاجتماعية، اعتباراً من مايو المقبل، وفق رسالة نُشرت عبر مدونة الجمعة.

وأوضحت مونيكا بيكرت، نائبة الرئيس المسؤولة عن سياسات المحتوى في الشركة الأم لفيسبوك وإنستغرام وواتساب وثريدز، “نخطط للبدء في تصنيف المحتوى الذي أنشئ بواسطة الذكاء الاصطناعي في مايو 2024″، لافتة إلى أن علامة “Made with AI” “صُنع باستخدام الذكاء الاصطناعي” ستوضع “على عدد أكبر من محتويات الفيديو والصوت والصور” مقارنة بالسابق.

وأشارت إلى أن المجموعة ستضع هذه العلامات على منصاتها عند رصد “مؤشرات إلى صور بالذكاء الاصطناعي بما يتوافق مع المعايير المعمول بها في القطاع”، أو إذا ما “أشار أشخاص إلى أنهم يحمّلون محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”.

وأعلنت المجموعة الأميركية أنها ستغيّر الطريقة التي تعالج بها المحتوى المعدل بواسطة الذكاء الاصطناعي، وذلك بعد التشاور مع مجلسها الإشرافي، معتبرة أن “الشفافية وإضافة عناصر أكثر لتوضيح السياق أصبحتا تشكّلان أفضل طريقة لمعالجة المحتوى الخاضع للتلاعب”، “من أجل تجنب مخاطر وضع قيود لا طائل منها على حرية التعبير”.

وباتت ميتا تفضّل إضافة “علامات وعناصر من السياق” إلى هذا النوع من المحتوى، بدلاً من إزالته كما كانت تفعل حتى الآن.

ومع ذلك، أوضحت ميتا أنها ستواصل إزالة أي محتوى من منصاتها، سواء تم إنشاؤه بواسطة الإنسان أو الذكاء الاصطناعي، إذا ما كان يتعارض مع قواعدها “ضد التدخل في العملية الانتخابية أو التخويف أو المضايقة أو العنف (…) أو أي سياسة أخرى مدرجة في معايير مجتمعنا”.

وتعتمد المجموعة أيضاً على شبكتها المكونة من “حوالي 100 مدقق حقائق مستقل” لتحديد المحتوى “الخاطئ أو المضلل” الذي ينتجه الذكاء الاصطناعي.

أعلنت الشركة الأم لفيسبوك في فبراير الماضي رغبتها في تصنيف أي صورة يتم إنشاؤها بواسطة الذكاء الاصطناعي، وهو قرار اتُّخذ على خلفية الحرب ضد المعلومات المضللة.

وقد تعهدت شركات تكنولوجيا عملاقة أخرى مثل مايكروسوفت وجوجل وأوبن إيه آي اتخاذ إجراءات مماثلة.

وأثار تنامي برمجيات الذكاء الاصطناعي التوليدي مخاوف من استخدام هذه الأدوات لزرع الفوضى السياسية، خصوصاً من خلال التضليل أو تزوير الحقائق، وبالأخص في هذا العام الذي يشهد سلسلة استحقاقات انتخابية كبرى، أبرزها الانتخابات الرئاسية في الولايات المتحدة.

وبعيدًا من عمليات الانتخاب هذه، فإن تطوير برامج الذكاء الاصطناعي التوليدية يترافق مع سيل من المحتويات المسيئة، وفق الكثير من الخبراء والهيئات الناظمة، بما يشمل تركيب صور ومقاطع إباحية ملفقة لنساء مشهورات بتقنية “التزييف العميق”، وهي ظاهرة تستهدف أيضاً الأشخاص العاديين.

Related Posts

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية AI بالعربي – متابعات دخل سباق الذكاء الاصطناعي بين الولايات المتحدة والصين مرحلة أكثر سخونة، بعد أن أصدر مركز معايير الذكاء…

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار AI بالعربي – متابعات سجّل قطاع الذكاء الاصطناعي طفرة غير مسبوقة في جذب استثمارات رأس المال الجريء،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 132 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 133 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 74 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 81 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 41 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق

  • سبتمبر 15, 2025
  • 48 views
الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق