إيقاف المعلومات المضللة عن الذكاء الاصطناعي: حماية الحقيقة في العالم الرقمي

17

Cathy Li, Agustina Callegari

انتشار الذكاء الاصطناعي في العصر الرقمي قد جلب ابتكارات مذهلة وتحديات فريدة، خاصة في مجال نزاهة المعلومات.

تؤدي تقنيات الذكاء الاصطناعي، بقدرتها على توليد نصوص وصور وأصوات وفيديوهات مزيفة، غالبًا ما يُشار إليها بـ”التزييف العميق”، إلى صعوبات كبيرة في التمييز بين المحتوى الأصيل والإبداعات الاصطناعية. هذه القدرة تُمكن المخالفين من أتمتة وتوسيع حملات المعلومات المضللة، مما يزيد بشكل كبير من نطاقها وتأثيرها.

ومع ذلك، فإن الذكاء الاصطناعي ليس المسيء في هذه القصة. بل يؤدي دورًا حيويًا في مكافحة المعلومات المضللة والخاطئة. يمكن للأنظمة المتقدمة المدعومة بالذكاء الاصطناعي تحليل الأنماط واستخدام اللغة والسياق للمساعدة في مراقبة المحتوى والتحقق من الحقائق واكتشاف المعلومات الكاذبة.

فهم الفروق الدقيقة بين المعلومات الخاطئة “نشر الأكاذيب بشكل غير مقصود” والمعلومات المضللة “النشر المتعمد” – وهو أمر حاسم للإجراءات المضادة الفعالة – يمكن أن يُسهم فيه أيضًا تحليل الذكاء الاصطناعي للمحتوى.

التكلفة الاجتماعية للمعلومات المضللة

عواقب المعلومات المضللة المدعومة بالذكاء الاصطناعي التي لا يتم التحقق منها عميقة، ويمكن أن تقوض نسيج المجتمع ذاته.

يحدد تقرير المخاطر العالمية لعام 2024 الصادر عن المنتدى الاقتصادي العالمي المعلومات الخاطئة والمضللة كتهديدات خطيرة في السنوات المقبلة، مسلطًا الضوء على إمكانية زيادة الدعاية المحلية والرقابة.

الاستخدام السياسي للذكاء الاصطناعي يشكل مخاطر جسيمة، حيث إن الانتشار السريع للتزييف العميق والمحتوى الذي ينتجه الذكاء الاصطناعي يجعل من الصعب بشكل متزايد على الناخبين التمييز بين الحقيقة والزيف، مما قد يؤثر على سلوك الناخبين ويقوض العملية الديمقراطية. يمكن أن تُحرف الانتخابات، ويمكن أن يتضاءل الثقة العامة في المؤسسات، ويمكن أن تشتعل الاضطرابات الاجتماعية، بل حتى قد يتفجر العنف.

علاوة على ذلك، يمكن لحملات المعلومات المضللة استهداف فئات سكانية محددة بمحتوى ضار يُنتجه الذكاء الاصطناعي. على سبيل المثال، تعزز المعلومات المضللة المتعلقة بالنوع الاجتماعي الصور النمطية وكراهية النساء، مما يزيد من تهميش الفئات الضعيفة.

تقوم مثل هذه الحملات بالتلاعب بإدراك الجمهور، مما يؤدي إلى إلحاق ضرر واسع النطاق بالمجتمع وتعميق الانقسامات الاجتماعية القائمة.

نهج متعدد الجوانب لمواجهة المحتوى المزيف

التطور السريع لتقنيات الذكاء الاصطناعي غالبًا ما يتجاوز الرقابة الحكومية، مما يؤدي إلى أضرار اجتماعية محتملة إذا لم يتم التعامل معها بحذر.

تُعالج المبادرات الصناعية مثل مصداقية المحتوى ووضع العلامات المائية المخاوف الرئيسية المتعلقة بالمعلومات المضللة وملكية المحتوى. تتطلب هذه الأدوات تصميمًا دقيقًا ومدخلات من جهات متعددة لمنع سوء الاستخدام، مثل تقويض الخصوصية أو اضطهاد الصحفيين في مناطق الصراع.

على سبيل المثال، يتصدى التحالف من أجل مصدر وأصالة المحتوى “C2PA” – الذي يضم شركات مثل Adobe وArm وIntel وMicrosoft وTruePic – لانتشار المعلومات المضللة عبر الإنترنت من خلال تطوير معايير تقنية لتصديق مصدر وتاريخ المحتوى الإعلامي.

لتخفيف المخاطر المرتبطة بالذكاء الاصطناعي بشكل أكبر، يجب على المطورين والمنظمات تنفيذ تدابير حماية قوية، وإجراءات شفافية، وأطر للمساءلة.

من خلال إنشاء أنظمة شاملة، يمكن للمطورين ضمان نشر الذكاء الاصطناعي بشكل أخلاقي ومسؤول، وبالتالي تعزيز الثقة وتشجيع الاستخدام المفيد للذكاء الاصطناعي في مختلف المجالات.

بالإضافة إلى التدابير التقنية، فإن التعليم العام حول الثقافة الإعلامية والتفكير النقدي ضروري لتمكين الأفراد من التنقل في المشهد المعقد للمعلومات الرقمية.

تؤدي المدارس والمكتبات والمنظمات المجتمعية دورًا حيويًا في تعزيز هذه المهارات، من خلال توفير الموارد وبرامج التدريب لمساعدة الأفراد على تطوير القدرة على تقييم مصادر المعلومات بشكل نقدي، والتمييز بين المعلومات المضللة والمحتوى الحقيقي، واتخاذ قرارات مستنيرة.

التعاون هو المفتاح لمواجهة المعلومات المضللة

علاوة على ذلك، فإن التعاون بين أصحاب المصلحة، بما في ذلك صناع السياسات والشركات التقنية والباحثين والمنظمات المدنية، ضروري لمواجهة التحديات المتعددة الأوجه التي تطرحها المعلومات المضللة والمدعومة بالذكاء الاصطناعي بفعالية.

تسلط هذه الحالة الضوء على أهمية تعزيز الفهم والتعاون العالميين لمواجهة انتشار المعلومات الكاذبة التي تسهلها زيادة المحتوى البشري وتقنيات الذكاء الاصطناعي.

يجمع تحالف حوكمة الذكاء الاصطناعي، وهو مبادرة رائدة من قبل المنتدى الاقتصادي العالمي وجزء من مركز الثورة الصناعية الرابعة، الخبراء والمنظمات من جميع أنحاء العالم لمعالجة التحديات المعقدة للذكاء الاصطناعي، بما في ذلك إنتاج المحتوى المضلل أو الضار وانتهاك حقوق الملكية الفكرية.

من خلال الجهود التعاونية، يقوم التحالف بتطوير توصيات عملية لضمان تطوير ونشر الذكاء الاصطناعي بشكل مسؤول وأخلاقي وأكبر فائدة للبشرية.

مبادرة أخرى للمنتدى هي التحالف العالمي للسلامة الرقمية، الذي يقود الجهود لمكافحة المعلومات المضللة من خلال تعزيز نهج شامل للمجتمع لتحسين الثقافة الإعلامية. يشمل ذلك فهم كيفية إنتاج وتوزيع واستهلاك المعلومات الكاذبة، وتحديد المهارات اللازمة في كل مرحلة لمواجهتها.

يجمع التحالف بين الشركات التقنية والمسؤولين العموميين والمجتمع المدني والمنظمات الدولية لتبادل أفضل الممارسات وتنسيق الإجراءات الهادفة إلى تقليل الأضرار عبر الإنترنت.

تطوير نهجنا نحو السلامة الرقمية

مع استمرار الذكاء الاصطناعي في تحويل عالمنا، من الضروري تطوير نهجنا نحو السلامة الرقمية ونزاهة المعلومات.

من خلال تعزيز التعاون والابتكار والتنظيم، يمكننا الاستفادة من فوائد الذكاء الاصطناعي مع الحفاظ على الحماية ضد مخاطره، وضمان مستقبل حيث ترفع التكنولوجيا من مستوى الثقة العامة والقيم الديمقراطية بدلاً من تقويضها.

من خلال العمل معًا، يمكننا ضمان أن يعمل الذكاء الاصطناعي كأداة للحقيقة والتقدم، وليس للتلاعب والانقسام.

المصدر: World Economic Forum

 

 

اترك رد

Your email address will not be published.