لا تثق في كل ما تقرأه: الذكاء الاصطناعي وخلق الواقع المزيف!

24

أيمن التميمي

نقلت مجلة بي سي (PC Mag) – والتي تهتم بأخبار التنقية – بتاريخ 17 من هذا الشهر في مقال بعنوان (شركة OpneAI: استخدام مجموعة إيرانية لـChatGPT لمحاولة التأثير على الانتخابات الأميركية)، خبر يوضح في تفاصيله الخطر المحتمل لاستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وغيرها من نماذج الذكاء الاصطناعي التوليدي الأخرى، في التأثير على الأحداث السياسية والاجتماعية ونشر المعلومات المضللة.

الخبر يتحدث عن قيام شركة OpenAI المالكة لـChatGPT بحظر مجموعة حسابات إيرانية، بعد كشف قيام تلك المجموعات باستخدام الذكاء الاصطناعي لتوليد محتوى وتوزيعه على مختلف منصات التواصل الاجتماعي، بهدف التأثير على سير الانتخابات الأميركية، والتلاعب في الرأي العام الأميركي.

هذه الحالة، مثل العديد من الحالات التي تم اكتشافها منذ بدأ صعود نجم ChatGPT في نهاية 2022م – تقرع جرس الإنذار للجميع حول قضية خطيرة وحساسة تتعلق بإمكانية استخدام الذكاء الاصطناعي كأداة لتضليل الرأي العام، ونشر روايات كاذبة، وإنشاء محتوى يبدو موثوقا لكنه في الواقع مختلق بالكامل وعار من الصحة.

اليوم سهولة توليد النصوص – وباقي أنواع المحتوى سواء أكان على شكل صور أم فيديو – التي تبدو وكأنها من إنتاج العقل البشري، تجعل من الصعب التفريق بين المعلومات الحقيقية والمحتوى الذي أنتجته خوارزميات الذكاء الاصطناعي!

هذا ما يجعل المختصين يتساءلون دائما عن مصداقية المحتوى الذي نقرأه أو نسمعه أو نشاهده على الإنترنت بشكل يومي، أهو محتوى حقيقي أم مختلق!؟
المقلق في هذا السياق أنه ومع تطور أدوات الذكاء الاصطناعي يتلاشى الخط الفاصل بين المحتوى الحقيقي والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مما يجعل من الصعب يومًا بعد يوم على المستخدمين العاديين بل وحتى على المختصين أحيانا التمييز بين الحقيقة والخيال.

حتى أكثر الجهات التقنية احترافية يصعب عليها أحيانا معرفة المحتوى الحقيقي من المحتوى المولد عن طريق الذكاء الاصطناعي.

للتدليل على هذه الصعوبة في التفريق بين المحتوى الحقيقي والمحتوى المولد، نشر موقع PCMag مقال هذا الشهر أيضا عن احتمال كبير أن تكون بعض الصور التي نشرها الرئيس الأمريكي السابق دونالد ترمب هي صورة مولدة وليست حقيقية.

لاحظ عزيزي القارئ أن المجلة PCMag العريقة رغم اختصاصها الكبير بالتقنية وبكل إمكانياتها التخصصية لم تجزم وتؤكد 100% أن الصور مولدة عن طريق الذكاء الاصطناعي، وإنما علقت على الصور بعبارة (احتمال كبير) وليس بعبارات الجزم، وهذا يشير لصعوبة اكتشاف المحتوى المولد من المحتوى الحقيقي!

المحتوى المولد عن طريق الذكاء الاصطناعي سيكون له تأثيرات بعيدة المدى ليس فقط في السياسة، ولكن أيضا في خلق أخبار ومعلومات وأحداث وصور وفيديوهات غير صحيحة تماما، ونشرها بشكل سريع على وسائل التواصل الاجتماعي!

في الحقيقة قوة الذكاء الاصطناعي ليست فقط في قدرته على أتمتة المهام وتنفيذها بشكل سريع، بل في قدرته الرهيبة على محاكاة السلوك البشري بدقة مذهلة في كثير من الأحيان.

كمتلقين ومستهلكين للمعلومات في العصر الرقمي، من الضروري أن نتعامل مع المحتوى الموجود على الإنترنت بحذر وبعين فاحصة، لذلك من المهم التحقق من مصادر المعلومات ومراجعة الحقائق والوعي بإمكانية وجود محتوى مولد بواسطة الذكاء الاصطناعي، حيث يعتبر مثل هذا الحذر من أهم الخطوات الأساسية لحماية أنفسنا من التلاعب والتضليل! الثقة العمياء في المحتوى يمكن أن تؤدي إلى انتشار المعلومات المفبركة والمضللة، والتي قد يكون لها عواقب وخيمة على المجتمع بشكل كامل!

صحيح أن الذكاء الاصطناعي يقدم العديد من الفوائد الهائلة ويساعد في إتمام العديد من المهام باحترافية، وهذا أمر محمود ورائع، ولكنه في المقابل يحمل أيضا مخاطر كبيرة، خاصة عندما يتعلق الأمر بمصداقية المحتوى على الإنترنت.

لذا، دورك اليوم كمستهلك للمحتوى أصبح أكثر أهمية من أي وقت مضى، تسلح باليقظة والحيطة والحذر دائما عند التعامل مع المحتوى الذي تتصفحه يوميا على مواقع شبكة الانترنت، فربما تقرأ قطعة أدبية رائعة جدًا للعقاد أو المنفلوطي على إحدى منصات التواصل الاجتماعي وتصفق لها إعجابا، ثم تكتشف لاحقا بأن المنفلوطي أو العقاد الذي كتب تلك القطعة الأدبية الجميلة ما هو إلا خوارزم ChatGPT أو جوجل جيمني!

المصدر: مكة

اترك رد

Your email address will not be published.