“وفاة بايدن” وفيديوهات مضللة.. محاكمة للذكاء الاصطناعي بتهمة “فبركة الأخبار”!

30

AI بالعربي – متابعات 

في عالم أصبحت مصادر الأخبار فيه متعددة، بات من الصعب التأكد من مصداقية هذه الأخبار في ظل السيل الكبير الذي يأتي من كل حدب وصوب، وبالرغم من أن البشر لجأوا للذكاء الاصطناعي لحل عدد لا بأس به من المشاكل، إلا أنه كان المتهم في هذه المشكلة

في تحليل لـ”بلومبرغ”، بدأت مواقع الإنترنت والتواصل الاجتماعي تشهد انتشار عدد من المواقع التي تنشر الأخبار بصيغة أخبار عاجلة، تتناول عدداً من القضايا السياسية والاجتماعية والاقتصادية، هذه المواقع بدأت بجذب عدد من المتابعين، الذين تفاعلوا مع هذه الأخبار، لكنهم لا يعلمون أن كل هذه الأخبار التي نشرتها هذه المواقع، تم إنشاؤها كلها من أدوات الذكاء الاصطناعي المشهورة مثل “ChatGPT” من شركة OpenAI، وأداة شركة Alphabet الحديثة “Bard”, وفقًا لما نشرته صحيفة سبق.

الشركة المتخصصة في تقييم الأخبار “NewsGuard” تتبعت هذه المواقع، لتكشف وجود 49 موقعاً مختلفاً تعمل جميعها على نشر أخبار تمت كتابتها بالكامل عبر الذكاء الاصطناعي، بعضها مبني على أخبار حقيقية تم نشرها على صحف ومجلات، وبعضها الآخر تمت فبركته بناء على محتوى مجهول أو فيديوهات يوتيوب مضللة.

وبالمتابعة الحثيثة لهذه المواقع، وجدت شركة “NewsGuard” خبراً على أحد المواقع يتحدث عن وفاة الرئيس الأمريكي جو بايدن، وأن نائبته كاميلا هاريس هي من تقود البلاد، كما رصدت موقعاً آخر يتحدث عن مقتل آلاف الجنود في حرب أوكرانيا، نقلاً عن مقطع فيديو غير مؤكد تم نشره على موقع يوتيوب.

البحث أظهر أن أغلب هذه المواقع عبارة عما يسمى بـ “مزارع محتوى” وهي عبارة عن مواقع إنترنت منخفضة الجودة تديرها مصادر مجهولة تقوم بنشر منشورات لجلب الإعلانات، وتنتشر في جميع أنحاء العالم ويتم نشرها بعدة لغات، بما في ذلك الإنجليزية والبرتغالية والتاغالوغية والتايلاندية.

وبمتابعة هذه المواقع، تمكن بعضها من تحقيق عائدات عبر إعلانات من خلال نشر محتوى من مواقع أخرى، لكن بعضهم الآخر حاول بناء جمهور على وسائل التواصل الاجتماعي، مثل موقع لنشر السير الذاتية للمشاهير والذي يتابع صفحته على فيسبوك حوالي 124 ألف متابع، ومن خلال ارتفاع المتابعين، يمكن لهم تحقيق عائدات عبر الإعلانات.

المشكلة الحقيقية هنا تكمن في العدد الكبير من هذه الأخبار التي يصعب على الناس العاديين تمييز ما إذا كانت حقيقية أم مزيفة، وباعتبار أننا فقط في بداية عصر خدمات الذكاء الاصطناعي التي تقدم خدمات نصوص مكتوبة، فإن الأمر مرشح للتفاقم بشدة إذا لم يتم التحكم في هذه الخدمات.

الرئيس التنفيذي لشركة “NewsGuard” قال إن التقرير يظهر أهمية أن تقوم الشركات التي تطلق خدمات الذكاء الاصطناعي بتدريب ربوتاتها لعدم المساهمة في كتابة أخبار مفبركة، وأن لا يتم استخدامها في أمور سلبية كهذه.

تحركات لاحتواء المشكلة

قائمة المخاطر التي ظهرت منذ ظهور روبوتات الذكاء الاصطناعي لا تلبث أن تكبر يوماً بعد يوم، وهي لا تشير إلا لأمر واحد، وهو وجوب وضع تنظيمات حكومية ورسمية تحكم العمل في هذا القطاع الذي شهد تطوراً سريعاً وهائلاً في وقت قصير، وهو أمر حذر منه عدد لا بأس به من الخبراء على رأسهم إيلون ماسك، الذي التقى به زعيم الأغلبية الديمقراطية في مجلس الشيوخ الأمريكي تشاك شومر ومشرعون آخرون الأسبوع الماضي؛ لمناقشة إجراءات تنظيم الذكاء الاصطناعي.

وكان ماسك من بين أشد المنتقدين للوتيرة السريعة الحالية لتطوير الذكاء الاصطناعي، ووقع خطاباً مفتوحاً في مارس الماضي مع معهد “Future of Life” يدعو فيه مختبرات الذكاء الاصطناعي إلى إيقاف مؤقت لمدة 6 أشهر بشأن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من برنامج “GPT-4″، في إشارة إلى أحدث نسخة من برنامج “ChatGPT”.

الأسباب والأبعاد

وقال خبير الذكاء الاصطناعي والبرمجة الروبوتية إسلام شطناوي، أن الذكاء الاصطناعي يعتبر خوارزمية أو نموذجاً رقمياً يستطيع التعلم من الخبرة، وهذه الخبرات تأتي من كل أشكال البيانات سواء نصية أو صور أو مرئية كالفيديو، وبالتالي يستطيع خلق أنماط يتعلم منها، فإذا تم تعليمه خبرات في أمور غير قانونية أو خاطئة، فللأسف سوف يوجد طريقة لتعلم وتوليد معرفة في هذه الأمور غير القانونية أو الخاطئة، فبالتأكيد موضوع الأخبار المفبركة وتوجيه الرأي العام عبرها تعتبر من الجوانب السلبية للذكاء الاصطناعي، بنفس الطريقة التي يقوم بها شخص ما باستخدام خبراته للقيام بأمور غير قانونية أو خاطئة، وهو فعلياً أمر يثير القلق لدى الكثيرين خصوصاً مع انتشار أمور مثل ما يسمى بـ “التزييف العميق”، وظهور حسابات وهمية على مواقع التواصل يقف خلفها آلاف من الربوتات التي تحاول إظهار أنهم أشخاص طبيعيون للقيام بتوجيه محتوى أو معلومات معينة ونشرها لعدد كبير من الناس، كل هذه الأمثة تظهر كيف يمكن للذكاء الاصطناعي أن يبدع في القيام بهذه الأمور الخاطئة، لكن يجب الحديث أيضا عن ما يسمى بالذكاء الاصطناعي المضاد، الذي يقوم بكشف إن كانت هذه الأخبار مفبركة وتعقبها ورسم شجرة للمصادر لكشف الذكاء الاصطناعي المضلل، والتقليل بشكل كبير من أخطاره ، بحسب موقع “اقتصاد سكاي نيوز عربية”.

المسؤولية والحلول

وبسؤاله عن مسؤولية هذه الأخطار والمشاكل، هل تقع على عاتق الشركات التي أطلقت هذه الخدمات؟ أم البشر الذين يستخدمونها؟ أم الحكومات التي لم تنظم القطاع حتى الآن؟ يجيب “شطناوي” بالقول إن المسؤولية مشتركة بين جميع ما تم ذكره، فالدول عليها أن تضع قوانين لضبط المعايير الأخلاقية وضبط مستويات الشفافية والحيادية للخوارزميات التي تدير خدمات الذكاء الاصطناعي العاملة فيها، وأن تقوم بإجراء كشف دوري على الشركات التي تقدم خدمات الذكاء الاصطناعي، وأن تقوم بإنشاء معايير تقوم عبرها بتقييم مدى التزام خوارزميات هذه الشركات بالمعايير الأخلاقية التي حددتها.

الشركات أيضاً عليها أن تضمن حماية البيانات والخصوصية ومراقبة كل الجوانب السيئة التي يمكن أن تنتج عن استخدام خدماتها للذكاء الاصطناعي، والقيام بشكل دوري بفحص شفافية واستقلالية الخوارزميات التي تقوم عليها خدماتها للذكاء الاصطناعي عبر تطبيق معايير كمبادرة IEEE لضمان معايير السلامة ومستوى الأخلاقية في الخوارزميات.

ويضيف أن المستخدم أيضاً عليه مسؤولية، فإذا ما اكتشف جانباً خاطئاً في أنظمة الذكاء الاصطناعي يجب عليه أن يبلغ عنها ويكشفها، وأن تقوم الشركات بتشجيع الأفراد للإقبال على هذا الكشف عبر جوائز مثلاً.

وركز “شطناوي” على أمر مهم جداً، وهو أن المشاكل التي تظهر في أنظمة الذكاء الاصطناعي مبنية على مصادر تعلم خوارزميات هذه الأنظمة، وللأسف هذه المصادر لا تقع دائماً في إطار المصادر الأخلاقية أو الصحيحة، ولتلخيص الموضوع فإن الخوارزمية التي تعمل عليها أنظمة الذكاء الاصطناعي ما هي إلا مرآة لبياناتنا وليست ناتجاً مستقلاً من هذه الأنظمة.

هل القوانين ستحل الأزمة؟

وعن ما إذا كان تطبيق القوانين الحاكمة لقطاع الذكاء الاصطناعي سيقوم بحل المشاكل سابقة الذكر، قال “شطناوي” إنه لا توجد منظومة كاملة متكاملة، ودائماً ما سيكون هناك أخطاء، وبالتالي يجب التعلم منها، فالهدف من هذه الأنظمة هو تقليل الأخطار والأخطاء بقدر الإمكان عبر الفحص والتحديث المستمر وتدقيق جودة مصادر تعلم الخوارزميات ومستوى توافقها مع المعايير الحكومية، هذه الإجراءات لا تضمن اختفاء الأخطاء والمشاكل بنسبة 100 بالمائة، لكنها ستضمن الوصول إلى النسخة الأمثل والأقل مشاكل في الدولة التي ستطبقها.

اترك رد

Your email address will not be published.