لا تثق في كل ما تقرأه: الذكاء الاصطناعي وخلق الواقع المزيف!

أيمن التميمي

نقلت مجلة بي سي (PC Mag) – والتي تهتم بأخبار التنقية – بتاريخ 17 من هذا الشهر في مقال بعنوان (شركة OpneAI: استخدام مجموعة إيرانية لـChatGPT لمحاولة التأثير على الانتخابات الأميركية)، خبر يوضح في تفاصيله الخطر المحتمل لاستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وغيرها من نماذج الذكاء الاصطناعي التوليدي الأخرى، في التأثير على الأحداث السياسية والاجتماعية ونشر المعلومات المضللة.

الخبر يتحدث عن قيام شركة OpenAI المالكة لـChatGPT بحظر مجموعة حسابات إيرانية، بعد كشف قيام تلك المجموعات باستخدام الذكاء الاصطناعي لتوليد محتوى وتوزيعه على مختلف منصات التواصل الاجتماعي، بهدف التأثير على سير الانتخابات الأميركية، والتلاعب في الرأي العام الأميركي.

هذه الحالة، مثل العديد من الحالات التي تم اكتشافها منذ بدأ صعود نجم ChatGPT في نهاية 2022م – تقرع جرس الإنذار للجميع حول قضية خطيرة وحساسة تتعلق بإمكانية استخدام الذكاء الاصطناعي كأداة لتضليل الرأي العام، ونشر روايات كاذبة، وإنشاء محتوى يبدو موثوقا لكنه في الواقع مختلق بالكامل وعار من الصحة.

اليوم سهولة توليد النصوص – وباقي أنواع المحتوى سواء أكان على شكل صور أم فيديو – التي تبدو وكأنها من إنتاج العقل البشري، تجعل من الصعب التفريق بين المعلومات الحقيقية والمحتوى الذي أنتجته خوارزميات الذكاء الاصطناعي!

هذا ما يجعل المختصين يتساءلون دائما عن مصداقية المحتوى الذي نقرأه أو نسمعه أو نشاهده على الإنترنت بشكل يومي، أهو محتوى حقيقي أم مختلق!؟
المقلق في هذا السياق أنه ومع تطور أدوات الذكاء الاصطناعي يتلاشى الخط الفاصل بين المحتوى الحقيقي والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مما يجعل من الصعب يومًا بعد يوم على المستخدمين العاديين بل وحتى على المختصين أحيانا التمييز بين الحقيقة والخيال.

حتى أكثر الجهات التقنية احترافية يصعب عليها أحيانا معرفة المحتوى الحقيقي من المحتوى المولد عن طريق الذكاء الاصطناعي.

للتدليل على هذه الصعوبة في التفريق بين المحتوى الحقيقي والمحتوى المولد، نشر موقع PCMag مقال هذا الشهر أيضا عن احتمال كبير أن تكون بعض الصور التي نشرها الرئيس الأمريكي السابق دونالد ترمب هي صورة مولدة وليست حقيقية.

لاحظ عزيزي القارئ أن المجلة PCMag العريقة رغم اختصاصها الكبير بالتقنية وبكل إمكانياتها التخصصية لم تجزم وتؤكد 100% أن الصور مولدة عن طريق الذكاء الاصطناعي، وإنما علقت على الصور بعبارة (احتمال كبير) وليس بعبارات الجزم، وهذا يشير لصعوبة اكتشاف المحتوى المولد من المحتوى الحقيقي!

المحتوى المولد عن طريق الذكاء الاصطناعي سيكون له تأثيرات بعيدة المدى ليس فقط في السياسة، ولكن أيضا في خلق أخبار ومعلومات وأحداث وصور وفيديوهات غير صحيحة تماما، ونشرها بشكل سريع على وسائل التواصل الاجتماعي!

في الحقيقة قوة الذكاء الاصطناعي ليست فقط في قدرته على أتمتة المهام وتنفيذها بشكل سريع، بل في قدرته الرهيبة على محاكاة السلوك البشري بدقة مذهلة في كثير من الأحيان.

كمتلقين ومستهلكين للمعلومات في العصر الرقمي، من الضروري أن نتعامل مع المحتوى الموجود على الإنترنت بحذر وبعين فاحصة، لذلك من المهم التحقق من مصادر المعلومات ومراجعة الحقائق والوعي بإمكانية وجود محتوى مولد بواسطة الذكاء الاصطناعي، حيث يعتبر مثل هذا الحذر من أهم الخطوات الأساسية لحماية أنفسنا من التلاعب والتضليل! الثقة العمياء في المحتوى يمكن أن تؤدي إلى انتشار المعلومات المفبركة والمضللة، والتي قد يكون لها عواقب وخيمة على المجتمع بشكل كامل!

صحيح أن الذكاء الاصطناعي يقدم العديد من الفوائد الهائلة ويساعد في إتمام العديد من المهام باحترافية، وهذا أمر محمود ورائع، ولكنه في المقابل يحمل أيضا مخاطر كبيرة، خاصة عندما يتعلق الأمر بمصداقية المحتوى على الإنترنت.

لذا، دورك اليوم كمستهلك للمحتوى أصبح أكثر أهمية من أي وقت مضى، تسلح باليقظة والحيطة والحذر دائما عند التعامل مع المحتوى الذي تتصفحه يوميا على مواقع شبكة الانترنت، فربما تقرأ قطعة أدبية رائعة جدًا للعقاد أو المنفلوطي على إحدى منصات التواصل الاجتماعي وتصفق لها إعجابا، ثم تكتشف لاحقا بأن المنفلوطي أو العقاد الذي كتب تلك القطعة الأدبية الجميلة ما هو إلا خوارزم ChatGPT أو جوجل جيمني!

المصدر: مكة

Related Posts

متى نحمد الاندفاع نحو الذكاء الاصطناعي؟

متى نحمد الاندفاع نحو الذكاء الاصطناعي؟ د. زياد بن عبدالعزيز آل الشيخ كم قيل لنا مرارًا وتكرارًا: “سيغير الذكاء الاصطناعي الصناعات بين عشية وضحاها”؟ عندها تتصدر العناوين الرئيسة بنتائج الدراسات…

منتقدو الذكاء الاصطناعي في “ألفابت” يطرحون الأسئلة الخطأ

منتقدو الذكاء الاصطناعي في “ألفابت” يطرحون الأسئلة الخطأ بارمي أولسون شكّل عدد قليل من مساهمي شركة “ألفابت” تحالفًا غير متوقع مؤخرًا، حين طالبوا الشركة بإيلاء اهتمام أكبر للمخاطر المرتبطة بالذكاء…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You Missed

دراسة تحذّر: الذكاء الاصطناعي يروّج لمعلومات طبية مضللة وخطيرة

  • من admin
  • يوليو 1, 2025
  • 17 views
دراسة تحذّر: الذكاء الاصطناعي يروّج لمعلومات طبية مضللة وخطيرة

“دليل الذكاء الاصطناعي.. أدوات إدارة المشاريع” إصدار جديد من “AI بالعربي”

  • من admin
  • يوليو 1, 2025
  • 23 views
“دليل الذكاء الاصطناعي.. أدوات إدارة المشاريع” إصدار جديد من “AI بالعربي”

صحافيون مزيفون من صنع الذكاء الاصطناعي يكتبون لمجلات إلكترونية شهيرة

  • من admin
  • يوليو 1, 2025
  • 20 views
صحافيون مزيفون من صنع الذكاء الاصطناعي يكتبون لمجلات إلكترونية شهيرة

جوجل تُعزز التعليم بالذكاء الاصطناعي وتُتيح “NotebookLM” للطلاب المراهقين

  • من admin
  • يوليو 1, 2025
  • 25 views
جوجل تُعزز التعليم بالذكاء الاصطناعي وتُتيح “NotebookLM” للطلاب المراهقين

المفوضية الأوروبية تعلن مشروعًا ضخمًا لتطوير مصانع الذكاء الاصطناعي بقيمة 200 مليار يورو

  • من admin
  • يوليو 1, 2025
  • 27 views
المفوضية الأوروبية تعلن مشروعًا ضخمًا لتطوير مصانع الذكاء الاصطناعي بقيمة 200 مليار يورو

المربع الجديد يوقع مذكرة تفاهم لتعزيز الابتكار والتقنية الذكية

  • من admin
  • يونيو 30, 2025
  • 34 views
المربع الجديد يوقع مذكرة تفاهم لتعزيز الابتكار والتقنية الذكية