AI بالعربي – متابعات
تتصاعد المخاوف العالمية بشأن مخاطر التلاعب بمخرجات الذكاء الاصطناعي بعد تحقيقات حديثة في الصين كشفت انتشار ممارسات تعتمد على ضخ معلومات مزيفة داخل البيئة الرقمية بهدف التأثير في إجابات أنظمة المحادثة الذكية. ويؤكد خبراء التقنية أن هذه الظاهرة قد تشكل تهديدًا مباشرًا لموثوقية المعرفة الرقمية في المستقبل القريب.
وأظهرت التحقيقات أن شركات تعمل في قطاع ناشئ يعرف باسم “تحسين محركات الذكاء الاصطناعي” تسعى إلى التأثير في نتائج أنظمة الدردشة عبر إغراق الإنترنت بمحتوى مصطنع. ويعتمد هذا الأسلوب على توجيه الخوارزميات نحو معلومات محددة بهدف تعزيز ظهور منتجات أو خدمات غير حقيقية في إجابات المستخدمين.
وكشفت التقارير أن نظامًا تقنيًا يحمل اسم “Liqing” استُخدم لإنشاء آلاف المراجعات والتقييمات الوهمية حول جهاز غير موجود يعرف باسم “Apollo-9”. وقد أدى هذا التضليل إلى ظهور المنتج ضمن توصيات بعض روبوتات الدردشة عند سؤالها عن أفضل الأساور الصحية الذكية، ما يعكس حجم التأثير الذي يمكن أن تحدثه هذه الممارسات الرقمية.
ويرى مختصون في الذكاء الاصطناعي أن هذا النوع من التلاعب يستند إلى مفهوم حديث يعرف باسم “Generative Engine Optimization”، وهو امتداد رقمي لتقنيات تحسين محركات البحث التقليدية، لكنه يستهدف الأنظمة الذكية بدلًا من محركات البحث. ويهدف هذا الأسلوب إلى التأثير المباشر في إجابات منصات مثل “ChatGPT” عبر توجيه البيانات التي تعتمد عليها النماذج اللغوية في صياغة الردود.
ويعتمد منفذو هذه العمليات على نشر مراجعات وتقييمات مصطنعة بكثافة في مواقع مختلفة على الإنترنت، ما يجعل الأنظمة الذكية تتعامل معها بوصفها معلومات موثوقة. ويؤكد خبراء الأمن الرقمي أن هذا النهج قد يؤدي إلى تضليل المستخدمين، كما قد يؤثر في قرارات الشراء أو الاستثمار أو حتى التوجهات الصحية والتقنية.
وتحذر دراسات متخصصة من أن تسميم بيانات الذكاء الاصطناعي قد يصبح أحد أبرز التحديات في عصر التحول الرقمي، خاصة مع تزايد الاعتماد على الأنظمة التوليدية في البحث والتحليل وصنع القرار. ويشير الباحثون إلى أن مواجهة هذه الظاهرة تتطلب تطوير أدوات تحقق أكثر دقة، إضافة إلى تعزيز الشفافية في مصادر البيانات المستخدمة لتدريب النماذج الذكية.
كما يؤكد خبراء التقنية أن انتشار المحتوى المزيف لا يؤثر فقط في المستخدم النهائي، بل يهدد كذلك ثقة المؤسسات في تبني الحلول الذكية. ويرى بعض المحللين أن استمرار هذه الممارسات قد يدفع الحكومات والشركات الكبرى إلى وضع أطر تنظيمية أكثر صرامة لحماية بيئة الذكاء الاصطناعي من التلاعب.
وفي ظل هذا الواقع المتغير، تتجه الأنظار نحو دور الشركات التقنية العالمية مثل “OpenAI” في تطوير آليات متقدمة لرصد التضليل الرقمي والتعامل مع محاولات التسميم المعلوماتي. ويؤكد مختصون أن المستقبل الرقمي سيتطلب توازنًا دقيقًا بين سرعة الابتكار وضمان جودة البيانات التي تعتمد عليها الأنظمة الذكية.
وتبرز هذه القضية بوصفها مؤشرًا على تحول جديد في طبيعة الصراع الرقمي العالمي، حيث لم يعد التنافس يقتصر على تطوير الخوارزميات، بل امتد إلى التحكم في تدفق المعلومات نفسها. ويرى مراقبون أن حماية مصداقية الذكاء الاصطناعي ستصبح أولوية استراتيجية في السنوات المقبلة، خاصة مع اتساع استخدام هذه التقنيات في مختلف القطاعات الاقتصادية والاجتماعية.








