كيف أخطأت أدوات الذكاء الاصطناعي في التحقق من الصور؟

كيف أخطأت أدوات الذكاء الاصطناعي في التحقق من الصور؟

كيف أخطأت أدوات الذكاء الاصطناعي في التحقق من الصور؟

AI بالعربي – متابعات

يلجأ مستخدمو الإنترنت أكثر فأكثر إلى برامج الدردشة الآلية عندما يريدون التحقّق من معلومة، لكنّ استعانتهم بالذكاء الاصطناعي محفوفة بالأخطاء التي قد يرتكبها، على ما ظهر في سجالات شهدتها منصة “إكس” بعد نشر صورة لفتاة تعاني سوء التغذية في غزة.

في الثالث من أغسطس، نشر النائب الفرنسي عن حزب “فرنسا الأبية” إيمريك كارون المؤيد للقضية الفلسطينية الصورة من دون تعليق على “إكس”، بينما كان قطاع غزة مهددًا بـ”مجاعة معمّمة” وفقًا للأمم المتحدة.

واستعان مستخدمون بأداة “Grok” للذكاء الاصطناعي للتثبت من صحة الصورة ليأتي الجواب “هذه الصورة التقطت في 18 أكتوبر 2018 في اليمن في عيادة متنقلة تابعة لليونيسف”.

وأضاف: “الصورة تظهر أمل حسين البالغة سبع سنوات والتي تعاني من حالة سوء تغذية شديدة، تحضنها أمها مريم العلي، وسط المجاعة التي تسببت بها الحرب الأهلية”.

وأكّدت أداة الذكاء الاصطناعي أنها استندت إلى مصادر موثوقة مثل صحيفة “نيويورك تايمز” وتابعت: “الصورة توثّق المجاعة الناتجة عن الحرب في اليمن، لا الحرب في غزة. أنا لا أنشر الأخبار الكاذبة بل أستند إلى المصادر الموثوقة. لا أحد يدفع لي لأكذب أنا أداة إكس للذكاء الاصطناعي وأعنى بالوقائع”.

بناء على هذه الإجابة، اتهم مستخدمون النائب بالتضليل، وانتشرت الصورة على نطاق واسع جدًا حاصدة أكثر من مليون مشاهدة. لكنّ الصورة، بعكس ما يؤكده “Grok”، لم تلتقط عام 2018 في اليمن.

فالبحث العكسي التقليدي يرشد إلى مصدرها الأصلي، وهي بالفعل التقطت في غزة بعدسة مصوّر “وكالة الصحافة الفرنسية” عمر القطاع.

وفي الصورة تبدو مريم دواس البالغة تسع سنوات، والتي تعاني من سوء تغذية، وفق والدتها، تحملها أمها مدلّلة، (33 عامًا) في حيّ الرمال في مدينة غزة.

ويمكن تحديد تاريخ التقاط الصورة في الثاني من أغسطس الحالي بفضل ملفّ البيانات الوصفية المرافق لها.

وتعيش العائلة حاليًا في مخيم للنازحين في شمال قطاع غزة. وشرحت مدللة دواس، لـ”وكالة الصحافة الفرنسية”، أن ابنتها لم تكن تعاني من أي مرض قبل الحرب، وكان وزنها 25 كيلوغراماً. أما اليوم فلا يتخطى وزنها 9 كيلوغرامات.

في الخامس من أغسطس، تواصل صحافيو “وكالة الصحافة الفرنسية” من جديد مع الوالدة التي أكّدت أن سوء التغذية أثّر أيضاً على حالة ابنتها النفسية والجسدية. فهي تعرف “أن الأمور ليست على ما يرام، وتطلب مني أن أطهو لها طبقاً يشفيها أو أن يصف لها الطبيب دواء يداويها”.

وهي ليست المرّة الأولى التي تخطئ فيها أداة “Grok”، ما يسلّط الضوء على مخاطر اللجوء إلى الذكاء الاصطناعي كأدوات تحقّق من المعلومات أو المواد البصريّة.

في الرابع من أغسطس، تراجعت أداة الذكاء الاصطناعي عن جوابها المتعلّق بصورة الفتاة، واعترفت بالخطأ: “أعترف بالخطأ: أخطأت بين هذه الصورة وأخرى التقطت عام 2018 في اليمن. بعد التحقق من (وكالة الصحافة الفرنسية) تبين أن الصورة تعود بالفعل لمريم دواس وهي ملتقطة في غزة عام 2025”.

لكن الأداة عادت لتقع بالخطأ من جديد في الخامس من أغسطس، عندما أعيد طرح السؤال نفسه عن الصورة لتجيب بأن الصورة قديمة، من اليمن.

“صناديق سوداء”
ويشرح لويس دو ديزباش، المتخصص بأخلاقيات التقنيات وصاحب كتاب “مرحبًا تشات جي بي تي”، أن كل هذه النماذج يلفها غموض، وبالتالي “يصعب تحديد كيفية عملها أو ما يقف وراءها أو ما يحدث داخلها، وهذا ما يدفعنا لإلقاء اللوم عليها”.

وبحسب هذا الخبير، فإن أداة “غروك” تجسد تحيزاً آيديولوجيا ملحوظاً تماماً كجميع الأدوات الشبيهة التي لا تكون أبداً محايدة.

وتظهر أداة “Grok” تحيّزاً أكثر وضوحًا، يتماشى بدرجة كبيرة مع الآيديولوجيا التي يروّج لها إيلون ماسك، صاحب منصّة “إكس”. ففي الشهر الماضي، أثار نظام “إكس” للذكاء الاصطناعي جدلاً واسعاً بعدما تحدّث بشكل خاطئ عن “إبادة جماعية للبيض” في جنوب أفريقيا، وهو خطأ نسبته شركة “إكس إيه آي” لاحقاً إلى “تعديل غير مصرح به”.

وتنجم هذه التحيزات عن مصدرين رئيسيين: بيانات تدريب الأداة التي تُشكّل قاعدة معرفة النموذج، وما يعدّه النموذج إجابة “صحيحة” أو “خطأ”، بما يتناسب مع المبادئ التي تدرب عليها.

ويضيف دو ديزباش: “هذه النماذج اللغوية ترتكب أخطاء، لكنها لا تتعلم دائماً بشكل مباشر. فارتكابها خطأً مرة واحدة، لا يعني أنها لن تكرره مجدداً. كما أن تَلَقيها توضيحاً بأن ما قدمته كان خاطئاً، لا يعني أنها ستُغيّر إجابتها في اليوم التالي؛ لأن بيانات تدريبها لم تتغير”.

ويشرح لوي دو ديزباش أن توجيه سؤال إلى روبوت محادثة عن أصل صورة ما، هو طلب يُخرجه من نطاق مهمته الأساسية. ويضيف: “عادة، عند البحث عن أصل صورة، قد يقول: (ربما التُقطت هذه الصورة في اليمن، أو ربما التُقطت في غزة، أو ربما التُقطت في أي بلد يعاني من المجاعة)”. ويوضح أن “النموذج اللغوي لا يسعى إلى إنشاء أمور دقيقة، فليس هذا هو الهدف”.

ونشرت صحيفة “ليبراسيون” أخيراً صورة أخرى لـ”وكالة الصحافة الفرنسية” التقطها عمر القطّاع أيضاً، تُظهر طفلاً يعاني سوء التغذية في غزة. وسبق لـ”غروك” أن أفاد خطأً أيضاً بأن الصورة ملتقطة في اليمن عام 2016، بينما التُقطت الصورة في الواقع في يوليو 2025 في غزة.

ودفعَ خطأ الذكاء الاصطناعي مستخدمي الإنترنت إلى اتهام الصحيفة زوراً بالتلاعب.

“Grok” ليس وحده
على منصة “إكس”، شارك بعض المستخدمين أيضاً إجابات غير دقيقة قدمها نموذج لغوي آخر تابع لشركة “ميسترال إيه آي” التي تربطها شراكة مع “وكالة الصحافة الفرنسية” تتيح إدماج أخبار الوكالة ضمن إجابات المساعد الحواري الخاص بها.

وأجرى فريق خدمة تقصي الأخبار في “وكالة الصحافة الفرنسية” الاختبار نفسه على أداة “ميسترال” باستخدام صورة لمريم دوّاس. وكانت النتيجة أن الذكاء الاصطناعي أخطأ، مشيراً إلى أن الصورة التُقطت في اليمن.

ويرى لويس دو ديزباش أن روبوتات المحادثة يجب عدم استخدامها للتحقّق من صحة الأخبار والصور على غرار محركات البحث؛ لأنها “ليست مصممة لقول الحقيقة”، ولا لـ”إنتاج محتوى دقيق”، بل من أجل “توليد محتوى، سواء كان صحيحاً أو خاطئاً”.

ويخلص إلى القول: “يجب النظر إلى هذه الروبوتات على أنها صديق مريض بالكذب: لا يكذب دائماً، لكنه قادر على الكذب في أي لحظة”.