AI بالعربي – متابعات
واجه موسوعة “ويكيبيديا” في الفترة الأخيرة تحديًا متزايدًا يرتبط باستخدام أدوات الترجمة المعتمدة على الذكاء الاصطناعي. وقد أثار هذا التحدي نقاشًا واسعًا داخل مجتمع المحررين حول دقة المحتوى وموثوقيته.
وتشير تقارير تقنية حديثة إلى أن بعض المقالات المترجمة آليًا تضمنت معلومات غير دقيقة أو مصادر غير موجودة، وهو ما دفع مجتمع ويكيبيديا إلى اتخاذ إجراءات صارمة للحفاظ على جودة المعرفة المنشورة داخل الموسوعة.
جدل حول ترجمات الذكاء الاصطناعي في ويكيبيديا
تُعد ويكيبيديا أكبر موسوعة معرفية مفتوحة على الإنترنت، وتعتمد على آلاف المتطوعين من المحررين حول العالم. ومع توسع استخدام أدوات الترجمة الذكية، بدأت تظهر مشكلات تتعلق بما يعرف تقنيًا بـ”هلوسة الذكاء الاصطناعي”.
وتعني هذه الظاهرة أن النماذج اللغوية قد تنتج معلومات تبدو دقيقة لغويًا لكنها غير صحيحة من حيث الوقائع أو المصادر.
وقد رصد محررون في الموسوعة حالات عدة لمقالات مترجمة آليًا تضمنت معلومات تاريخية وجغرافية غير صحيحة، إضافة إلى مراجع لا وجود لها في المصادر الأصلية.
تقارير تقنية تكشف أخطاء في المقالات المترجمة
كشف تقرير نشره موقع “404 Media” المتخصص في قضايا التكنولوجيا والخصوصية عن تزايد الأخطاء في المقالات المترجمة بواسطة أدوات الذكاء الاصطناعي.
وأوضح التقرير أن بعض المحررين اكتشفوا أن مقالات كاملة استندت إلى مراجع مختلقة أو غير دقيقة.
ويروي أحد محرري ويكيبيديا، ويدعى إلياس ليبلو، أنه اكتشف حالة لافتة في مقال مترجم عن عائلة أرستقراطية فرنسية.
وقد أشار المقال إلى كتاب محدد مع رقم صفحة دقيق. لكن مراجعة المصدر كشفت أن الصفحة المذكورة لا علاقة لها بالموضوع، وأن المرجع أُنشئ نتيجة “هلوسة” خوارزمية.
دور أدوات الذكاء الاصطناعي في تضخيم المشكلة
تشير تقارير تقنية أخرى إلى أن انتشار أدوات مثل “ChatGPT” و”Gemini” أدى إلى تسريع إنتاج الترجمات الرقمية، لكن ذلك حدث أحيانًا دون مراجعة بشرية كافية.
ووفق تقرير نشرته مجلة التكنولوجيا الأميركية “PCWorld”، فقد تفاقمت المشكلة نتيجة مبادرات تهدف إلى توسيع المحتوى بلغات متعددة، خاصة في دول الجنوب العالمي.
وقد حصل مترجمون متطوعون على مكافآت مالية مقابل زيادة حجم المحتوى بلغاتهم المحلية.
لكن بعض المشاركين استخدموا أدوات الذكاء الاصطناعي بشكل مفرط لتسريع الترجمة.
وقد أدى ذلك إلى تدفق مقالات تحتوي على أخطاء معرفية أو تاريخية، وهو ما وصفه بعض الخبراء بـ”النفايات الرقمية”.
ويكيبيديا تتخذ إجراءات لحماية جودة المحتوى
أمام هذه التطورات، تحرك مجتمع ويكيبيديا بسرعة لحماية مصداقية الموسوعة.
وقد طُبقت عدة إجراءات تنظيمية تهدف إلى تقليل الأخطاء الناتجة عن الاستخدام غير المنضبط للذكاء الاصطناعي.
وشملت هذه الإجراءات حظر بعض المترجمين الذين ثبت ارتكابهم أخطاء جسيمة في المحتوى.
ويطبق المحررون سياسة تعرف باسم “قاعدة الأخطاء الخمسة”.
وتعني هذه القاعدة أن أي مساهم يرتكب خمسة أخطاء كبيرة بسبب استخدام غير مراقب للذكاء الاصطناعي قد يفقد حق المشاركة في التحرير.
كما بدأ المحررون حذف آلاف المقالات التي لم تخضع لتدقيق بشري كافٍ.
ولا يُعاد نشر هذه المقالات إلا إذا تولى محرر خبير مراجعتها بالكامل وتصحيح مصادرها.
اعتماد نظام تدقيق متقاطع للترجمات
إلى جانب الحذف والحظر، بدأ مجتمع ويكيبيديا تطبيق آليات تدقيق أكثر صرامة على الترجمات.
وتشمل هذه الآليات ما يعرف بنظام “المقارنة المتقاطعة”.
ويعتمد هذا النظام على مقارنة النص الأصلي بالنص المترجم للكشف عن أي تناقض أو تغيير في المعنى.
كما يُطلب من المساهمين تقديم مصادر موثوقة يمكن التحقق منها بسهولة.
وتهدف هذه الخطوات إلى منع انتشار المعلومات غير الدقيقة داخل الموسوعة، خاصة في المقالات التي تعتمد على ترجمة آلية.
مؤسس ويكيبيديا يؤكد أهمية العنصر البشري
علق جيمي ويلز، المؤسس المشارك لموسوعة ويكيبيديا، على هذه الأزمة مؤكدًا أن الذكاء الاصطناعي يمثل تطورًا تقنيًا مهمًا.
لكنه شدد في الوقت نفسه على أن هذه الأدوات ما زالت عرضة للخطأ.
وأوضح ويلز أن الموسوعة تعتمد أساسًا على “العنصر البشري” في تقييم المعرفة.
ويرى أن البشر يملكون القدرة على فهم السياق الثقافي والمعرفي الذي لا تستطيع الخوارزميات إدراكه بالكامل.
وأضاف أن التكنولوجيا يمكن أن تساعد في دعم العمل التحريري، لكنها لا تستطيع أن تحل محل الخبرة البشرية في التحقق من المعلومات.
خبراء يحذرون من حلقة تضليل معرفي على الإنترنت
يرى باحثون في “Nieman Lab”، وهو مختبر متخصص في دراسات الصحافة بجامعة هارفارد، أن هذه القضية تكشف مشكلة أوسع في بيئة الإنترنت الحديثة.
ويؤكد الخبراء أن نشر محتوى ضعيف أو غير دقيق قد يؤدي إلى ما يشبه الحلقة المفرغة.
وفي هذه الحالة تبدأ الأنظمة الذكية في تدريب نفسها على معلومات خاطئة منتشرة على الإنترنت.
ومع مرور الوقت، قد يؤدي ذلك إلى تضخم المعلومات المضللة داخل الفضاء الرقمي.
كما قد يضعف الثقة العامة بالمصادر المعرفية المفتوحة.
مستقبل المعرفة الرقمية بين الإنسان والآلة
تكشف أزمة الترجمات في ويكيبيديا عن تحدٍ مهم يواجه المعرفة الرقمية في عصر الذكاء الاصطناعي.
فالسرعة التي توفرها أدوات التوليد الآلي قد تساعد في نشر المعلومات، لكنها قد تهدد أيضًا دقتها إذا غابت الرقابة البشرية.
ولهذا يؤكد كثير من الخبراء أن مستقبل المعرفة على الإنترنت لن يعتمد على الآلات وحدها.
بل سيقوم على توازن بين قدرات الذكاء الاصطناعي وخبرة المحررين البشر.
وفي هذا السياق تبقى ويكيبيديا مثالًا بارزًا على أهمية العمل الجماعي في حماية الحقيقة الرقمية.
فالمعرفة المفتوحة لا تقوم على السرعة فقط، بل على الدقة والمراجعة المستمرة.
وهذا ما يجعل العنصر البشري حجر الأساس في الحفاظ على مصداقية واحدة من أهم منصات المعرفة في العالم.








