AI بالعربي – متابعات
كشف تقرير بحثي حديث عن فجوة مقلقة بين طموحات الأتمتة والواقع العملي لوكلاء الذكاء الاصطناعي داخل بيئات العمل الاحترافية، بعدما أظهرت اختبارات معيارية أن هؤلاء الوكلاء أخفقوا في تنفيذ غالبية المهام المطلوبة، ما يعيد فتح النقاش حول جاهزيتهم الفعلية لدخول سوق العمل المعرفي.
التقرير استند إلى اختبار عالمي يُعرف باسم “Apex-Agents”، صُمم لقياس قدرة وكلاء الذكاء الاصطناعي على أداء مهام حقيقية في وظائف الياقات البيضاء، داخل قطاعات البنوك والاستشارات والخدمات القانونية، وهي مجالات تعتمد على التحليل والسياق واتخاذ القرار متعدد المراحل.
نتائج الاختبار تكشف فجوة الأداء
أظهرت نتائج الاختبار أن أفضل النماذج المتاحة حاليًا لم تتجاوز نسبة نجاح 24% فقط في إنجاز المهام المطلوبة، مقابل فشل بلغ 76%، وهي نسبة وُصفت بأنها صادمة قياسًا بحجم الاستثمارات والوعود التسويقية المرتبطة بوكلاء الذكاء الاصطناعي.
وسجّل نموذج “Gemini 3 Flash” من جوجل أحد أعلى معدلات الأداء بين النماذج المختبرة، لكنه بقي بعيدًا عن مستوى الاعتماد المؤسسي الكامل، ما يعكس حدود القدرات الحالية رغم التطور السريع في البنية الحسابية.
أين يفشل وكلاء الذكاء الاصطناعي؟
وفقًا لتقارير تقنية متخصصة، تعود الإخفاقات الأساسية إلى ضعف قدرة الوكلاء على التعامل مع المعلومات الموزعة عبر أدوات عمل متعددة، مثل Slack وGoogle Drive، بطريقة تحاكي التفكير البشري المتسلسل.
يعاني وكلاء الذكاء الاصطناعي من فقدان السياق عند الانتقال بين المنصات، ما يؤدي إلى أخطاء في ترتيب الأولويات أو تفسير الأوامر الإدارية، وهو خلل جوهري في بيئات العمل التي تعتمد على التراكم المعرفي لا على التعليمات المنفصلة.
فقدان السياق يهدد القرارات الحساسة
أكد الباحثون أن المشكلة لا تتعلق بسرعة المعالجة أو حجم البيانات، بل بغياب الفهم الدلالي المتغير، وهو عنصر أساسي في وظائف مثل مراجعة العقود أو تحليل المخاطر البنكية.
في هذه السيناريوهات، قد يؤدي خطأ سياقي واحد إلى قرار مالي أو قانوني غير دقيق، ما يجعل الاعتماد الكامل على وكلاء الذكاء الاصطناعي مغامرة تقنية غير محسوبة النتائج في الوقت الحالي.
الأمن والامتثال عائق رئيسي
أشار التقرير إلى أن 52% من قادة الشركات يعتبرون المخاوف الأمنية والامتثال التنظيمي العقبة الأكبر أمام نشر وكلاء الذكاء الاصطناعي على نطاق واسع.
وتشترط غالبية المؤسسات وجود رقابة بشرية مباشرة على كل قرار حاسم يتخذه النظام، خصوصًا في القطاعات المالية والقانونية، خشية الوقوع في أخطاء غير متوقعة أو ثغرات امتثال مكلفة.
الأتمتة الشاملة لا تزال بعيدة
تعكس هذه النتائج أن فكرة «القوة العاملة السيليكونية» لا تزال أبعد مما تروجه بعض شركات التكنولوجيا الكبرى، رغم التقدم اللافت في نماذج مثل ChatGPT ومنتجات OpenAI المنافسة.
فالتحول من أدوات مساعدة إلى وكلاء مستقلين يتطلب مستوى أعلى من الثقة، والاستقرار، والقدرة على التكيف مع السياقات المتغيرة داخل المؤسسة الواحدة.
الموثوقية قبل القدرات الحسابية
يتفق خبراء الحوكمة الرقمية على أن الموثوقية والحوكمة تتقدمان على القوة الحسابية الخام، مؤكدين أن بناء وكلاء ناجحين لا يتحقق عبر أتمتة الإجراءات القائمة فقط.
ويتطلب الأمر إعادة تصميم العمليات التشغيلية نفسها، مع تحديد نقاط التدخل البشري، وآليات المراجعة، وحدود الصلاحيات، لضمان دقة القرارات وسلامة البيانات.
ما الذي يعنيه ذلك لسوق العمل؟
تشير هذه التطورات إلى أن الذكاء الاصطناعي سيبقى، في المدى المنظور، أداة داعمة للموظفين لا بديلًا كاملًا عنهم، خاصة في الوظائف التي تتطلب فهمًا سياقيًا وتقديرًا أخلاقيًا وتحليلًا متعدد الأبعاد.
ورغم أن التحسن مستمر، إلا أن نتائج «Apex-Agents» تقدم تذكيرًا واقعيًا بأن الطريق نحو الأتمتة الذكية أطول وأكثر تعقيدًا مما كان متوقعًا، وأن الرهان الحقيقي لا يكمن في السرعة، بل في الثقة والحوكمة والاستيعاب العميق لطبيعة العمل البشري.








