AI بالعربي – متابعات
كشفت دراسة حديثة أجراها اتحاد البث الأوروبي (EBU) بالتعاون مع هيئة الإذاعة البريطانية (BBC) أن 45% من إجابات برامج الذكاء الاصطناعي الكبرى تضمنت معلومات كاذبة أو مضللة، ما يثير قلقًا واسعًا حول دقة هذه التقنيات وتأثيرها على الثقة في الأخبار.
الذكاء الاصطناعي يفشل في دقة الأخبار
حللت الدراسة نحو 3000 إجابة من أشهر المساعدين الرقميين مثل ChatGPT وCopilot وGemini وPerplexity.
وأظهرت النتائج أن ما يقرب من نصف الردود شابها تحريف أو نقص في الدقة، خاصة في الأخبار.
ويأتي التقرير بالتزامن مع تزايد اعتماد المستخدمين الشباب على المساعدين الرقميين كمصدر رئيسي للأخبار، بحسب تقرير معهد رويترز للأخبار الرقمية 2025.
نتائج الدراسة تدق ناقوس الخطر
أشار التقرير إلى أن 45% من الإجابات احتوت على مشكلة مهمة واحدة على الأقل، بينما تضمنت 81% منها شكلًا من أشكال الأخطاء.
وشملت الدراسة 22 مؤسسة إعلامية من 18 دولة، بينها فرنسا وألمانيا وإسبانيا وبريطانيا والولايات المتحدة.
وأكد الباحثون أن هذه النتائج تدفع الشركات إلى معالجة أوجه القصور وتحسين آليات التحقق من المعلومات.
Gemini من جوجل يتصدر قائمة النماذج المضللة
سجّل مساعد Gemini من جوجل أعلى معدل للأخطاء بين النماذج الأربعة التي شملها التحليل.
وأوضح التقرير أن 72% من إجابات Gemini احتوت على مشكلات في الإسناد أو نقص في المصادر، مقارنةً بـ25% فقط في النماذج الأخرى.
كما تم رصد أخطاء واقعية في 20% من إجمالي الردود، مثل تقارير قديمة أو بيانات غير صحيحة.
أمثلة على الأخطاء التي رصدها التقرير
ذكر التقرير أن Gemini قدّم معلومات غير دقيقة حول القوانين الخاصة بالسجائر الإلكترونية ذات الاستخدام الواحد.
كما أشار إلى أن ChatGPT ذكر خطأً أن البابا فرانسيس لا يزال على قيد الحياة بعد الإعلان عن وفاته بعدة أشهر.
هذه الأخطاء، وفقًا للدراسة، تهدد ثقة الجمهور في أدوات الذكاء الاصطناعي كمصادر موثوقة للأخبار.
تحذيرات من تراجع الثقة بالمحتوى الآلي
نبّه اتحاد الإذاعات الأوروبية إلى أن انتشار هذه الأخطاء قد يُقوّض الثقة العامة في الأخبار الرقمية.
وأكد أن المجتمعات الديمقراطية تحتاج إلى معلومات دقيقة وموثوقة، داعيًا الشركات إلى تحمل المسؤولية الأخلاقية عن مخرجات أنظمتها الذكية.
ارتفاع اعتماد المستخدمين على الذكاء الاصطناعي للأخبار
كشف تقرير رويترز للأخبار الرقمية 2025 أن 7% من مستخدمي الأخبار عبر الإنترنت يعتمدون على أدوات الذكاء الاصطناعي للحصول على الأخبار.
وترتفع النسبة إلى 15% بين الفئة العمرية تحت 25 عامًا.
ويرى الخبراء أن هذا التحوّل يفرض التزامًا إضافيًا على شركات التقنية لضمان دقة وموثوقية مصادرها.
هلوسة النماذج الذكية.. مشكلة لم تُحل بعد
أوضح التقرير أن العديد من الشركات تعترف بوجود مشكلة “الهلوسة” في النماذج الذكية.
وتحدث هذه الظاهرة عندما تُنتج الأنظمة بيانات غير صحيحة نتيجة نقص المعلومات أو التدريب غير الكافي.
وقد أكدت شركات مثل OpenAI وMicrosoft أنها تعمل على تطوير حلول لتقليل هذه المشكلة.
Perplexity تحاول تحسين دقة الحقائق
أشار التقرير إلى أن منصة Perplexity تُركّز على تحسين دقة المعلومات من خلال وضع خاص باسم “البحث العميق”، الذي قالت إنه يحقق دقة تصل إلى 93.9% من حيث الواقعية، في محاولة لتقليل الأخطاء المنتشرة في المساعدين الآخرين.
خلاصة
تؤكد الدراسة أن دقة الذكاء الاصطناعي في مجال الأخبار لا تزال موضع شك كبير.
ورغم التطورات التقنية المتسارعة، تبقى الحاجة ملحّة لتعزيز الشفافية والمساءلة في التعامل مع هذه النماذج.
ويبقى السؤال الأهم: هل ستنجح الشركات في تحويل الذكاء الاصطناعي إلى مصدر موثوق للمعلومات، أم سيظل خطر التضليل قائمًا؟








