AI بالعربي – متابعات
مع صعود أنظمة RAG أو Retrieval-Augmented Generation بوصفها الحل السحري لمشكلة هلوسة النماذج وحدود معرفتها، بدا أن الذكاء الاصطناعي أخيرًا وجد طريقة لربط اللغة بالواقع عبر استرجاع معلومات موثوقة من مصادر خارجية. لكن كما هو الحال دائمًا في عالم التقنية، ما يُستخدم للحماية يمكن أن يتحول إلى نقطة اختراق. هنا يظهر مفهوم “Retrieval Attack” أو هجوم الاسترجاع، حيث لا يتم التلاعب بالنموذج نفسه، بل بما يسترجعه ويثق به. الهجوم لا يكسر النموذج، بل يغذّيه بمعرفة مسمومة، فيُنتج إجابات تبدو دقيقة، موثوقة، ومدعومة بمصادر… لكنها في جوهرها مُحقنة عمدًا.
ما هو RAG ولماذا أصبح شائعًا؟
RAG هو نهج يجمع بين نموذج لغوي كبير ونظام استرجاع معلومات خارجي. بدل أن يعتمد النموذج فقط على ما تعلمه أثناء التدريب، يقوم بجلب مقاطع أو وثائق ذات صلة بالسؤال من قاعدة بيانات أو مستودع معرفي، ثم يستخدمها كأساس لتوليد الإجابة. هذا الأسلوب حسّن الدقة، خفف الهلوسة، وجعل النماذج أكثر قابلية للاستخدام المؤسسي، خصوصًا في البيئات التي تتطلب معلومات محدثة أو متخصصة.
من تحسين الدقة إلى توسيع سطح الهجوم
إضافة طبقة الاسترجاع لم تجعل النظام أذكى فقط، بل جعلته أكثر عرضة للهجوم. فبدل مهاجمة النموذج مباشرة، يمكن للمهاجم استهداف قاعدة المعرفة، أو آلية الفهرسة، أو طريقة اختيار الوثائق. النتيجة هي نموذج يعمل “بشكل صحيح” تقنيًا، لكنه يبني إجاباته على مدخلات فاسدة. هنا يصبح الهجوم أكثر خفاءً، وأصعب في الاكتشاف.
ما المقصود بهجوم الاسترجاع Retrieval Attack؟
هجوم الاسترجاع هو أي محاولة متعمدة للتلاعب بالمحتوى الذي يسترجعه نظام RAG بحيث يؤثر على مخرجات النموذج. لا يتطلب هذا الهجوم اختراقًا أمنيًا تقليديًا، بل يكفي إدخال معلومات مضللة، أو إعادة ترتيب الصلة، أو استغلال آلية التضمين الدلالي لجعل محتوى معين يظهر كـ “الأكثر صلة”. النموذج بدوره يثق فيما استرجعه، لأنه يفترض أن طبقة الاسترجاع موثوقة.
كيف تُحقن المعرفة داخل RAG؟
تتم عملية الحقن عبر عدة مسارات. قد يقوم المهاجم بإضافة مستندات إلى قاعدة المعرفة تحتوي على معلومات خاطئة بصياغة تبدو رسمية. أو قد يستغل مصادر عامة يعتمد عليها النظام، مثل مواقع مفتوحة أو مستودعات غير محكمة. في حالات أخرى، يتم استغلال طريقة التضمين الدلالي نفسها، عبر كتابة نصوص مصممة لتطابق عددًا كبيرًا من الاستفسارات، فتظهر باستمرار في نتائج الاسترجاع.
التلاعب بالصلة: عندما يصبح الخاطئ “أكثر ارتباطًا”
أنظمة RAG تعتمد على قياس الصلة الدلالية، لا على التحقق من الصحة. هذا يفتح الباب للتلاعب، حيث يمكن لنص مُضلل أن يُكتب بأسلوب عام وشامل يجعله يبدو مرتبطًا بعدد كبير من الأسئلة. النتيجة أن النظام يسترجعه مرارًا، ويمنحه سلطة معرفية غير مستحقة.
الفرق بين هلوسة النموذج ومعرفة مُحقنة
الهلوسة ناتجة عن فراغ معرفي أو استنتاج خاطئ من داخل النموذج، وغالبًا ما تكون قابلة للاكتشاف. أما المعرفة المُحقنة فهي أخطر، لأنها تأتي من “خارج” النموذج، ومرفقة بمصدر أو وثيقة. المستخدم هنا لا يشك، لأن الخطأ لم يعد يبدو كخطأ نموذج، بل كمعلومة موثوقة.
لماذا يعد Retrieval Attack أكثر خطورة من Prompt Injection؟
في Prompt Injection، يكون التلاعب ظاهرًا نسبيًا، ومحصورًا في سياق المحادثة. أما Retrieval Attack فيؤثر على كل من يستخدم النظام، وعلى كل سؤال ذي صلة. هو هجوم بنيوي، طويل الأمد، وقد يظل نشطًا دون اكتشاف لفترات طويلة، خصوصًا في الأنظمة المؤسسية واسعة النطاق.
أمثلة عملية على هجمات الاسترجاع
في أنظمة دعم القرار، قد تُحقن تقارير اقتصادية مضللة تؤثر على توصيات الاستثمار. في المجال الطبي، قد تُضاف وثائق قديمة أو مغلوطة تظهر كإرشادات حديثة. في التعليم، قد تُدرج مصادر تفسيرية منحازة تُقدَّم كحقائق. في كل حالة، النموذج لا “يكذب”، بل ينقل ما استرجعه.
دور الثقة العمياء في تضخيم أثر الهجوم
كلما زادت ثقة المؤسسة أو المستخدم في نظام RAG، زادت خطورة Retrieval Attack. لأن الافتراض الضمني هو أن “الاسترجاع يعني التحقق”. هذا الافتراض خاطئ. الاسترجاع يعني فقط الصلة، لا الصحة. الخلط بين المفهومين هو ما يجعل الهجوم فعالًا.
هل المشكلة في RAG أم في طريقة تطبيقه؟
المشكلة ليست في الفكرة ذاتها، بل في غياب طبقات التحقق. RAG صُمم ليكون وسيطًا معرفيًا، لا حكمًا على الحقيقة. عندما يُستخدم دون مراجعة للمصادر، أو دون تقييم لجودة المحتوى المسترجع، يتحول من حل لمشكلة الهلوسة إلى بوابة لهلوسة مُقنّعة.
كيف يمكن تقليل مخاطر Retrieval Attack؟
تقليل المخاطر يتطلب الجمع بين عدة استراتيجيات، منها تقييد مصادر المعرفة، وتطبيق آليات تحقق إضافية، وتقييم جودة الوثائق دوريًا، وعدم الاعتماد على الصلة الدلالية وحدها. كذلك، من المهم إظهار المصادر للمستخدم بوضوح، وتشجيعه على التحقق بدل الاستهلاك السلبي.
دور الإنسان في كشف المعرفة المسمومة
مهما تطورت الأنظمة، يظل الإنسان عنصرًا حاسمًا. المراجعة البشرية، خصوصًا في المجالات الحساسة، قادرة على اكتشاف أنماط التضليل التي قد تمر على الخوارزميات. الذكاء الاصطناعي قد يسترجع، لكن الإنسان يقيّم.
RAG بين تحسين الذكاء وتوسيع الهجوم
ما يحدث مع RAG يختصر معضلة الذكاء الاصطناعي الحديثة: كل تحسين تقني يفتح بابًا جديدًا للمخاطر. زيادة الاتصال بالمعرفة لا تعني زيادة الفهم، ما لم تُضبط القنوات والمعايير.
هل سنصل إلى RAG محصّن بالكامل؟
من غير الواقعي افتراض حصانة كاملة. لكن يمكن بناء أنظمة أكثر وعيًا بالمخاطر، وأكثر شفافية في عرض مصادرها، وأقل ثقة في أي معرفة تُسترجع تلقائيًا. الهدف ليس منع الخطأ، بل تقليل أثره وكشفه مبكرًا.
خاتمة: عندما تصبح المعرفة سلاحًا
هجوم الاسترجاع يذكّرنا بأن الذكاء الاصطناعي لا يُضلل فقط عندما يهلوس، بل أيضًا عندما يثق أكثر مما ينبغي. في عصر RAG، لم تعد المعركة حول قدرة النموذج على التذكر، بل حول من يحدد ما يجب أن يُتذكر. المعرفة، حين تُحقن بلا حراسة، تتحول من مصدر قوة إلى أداة اختراق.
الأسئلة الشائعة (FAQ)
ما هو Retrieval Attack؟
هو هجوم يستهدف طبقة الاسترجاع في أنظمة RAG عبر إدخال أو التلاعب بالمحتوى المسترجع للتأثير على مخرجات النموذج.
هل RAG يجعل الذكاء الاصطناعي أكثر أمانًا؟
يمكن أن يقلل الهلوسة، لكنه يفتح بابًا لهجمات جديدة إذا لم تُضبط مصادر المعرفة.
ما الفرق بين الهلوسة والمعرفة المُحقنة؟
الهلوسة خطأ داخلي من النموذج، أما المعرفة المُحقنة فتأتي من مصادر خارجية تبدو موثوقة.
كيف يمكن اكتشاف هجمات الاسترجاع؟
عبر مراجعة المصادر، مراقبة أنماط التكرار، وتطبيق طبقات تحقق إضافية على المحتوى المسترجع.
هل هذه الهجمات مقلقة للمؤسسات؟
نعم، خصوصًا في الأنظمة التي تعتمد على RAG لاتخاذ قرارات أو تقديم معلومات حساسة.
اقرأ أيضًا: الذكاء الاصطناعي و”AI Governance”.. حوكمة الذكاء: من يضع القواعد ومن يراقب الالتزام؟






