دراسة جديدة: “ChatGPT” يمكن أن يجعل أداء العمال أسوأ
AI بالعربي – متابعات
توصل بحث جديد لمجموعة BCG إلى أن العاملين الذين يستخدمون ChatGPT من OpenAI قد يكون أداؤهم في الواقع أسوأ من أولئك الذين لا يستخدمونه، وذلك لأن بعض العاملين يأخذون مخرجات روبوت الدردشة الاصطناعي بالقيمة الأسمية ولا يتحققون من الأخطاء.
وذكر تقرير موقع «إنسايدر»، أنه قد تكون النتائج التي توصلت إليها مجموعة BCG بمثابة قصة تحذيرية للعاملين الذين يتجهون إلى الذكاء الاصطناعي.
وأوضح التقرير، أنه إذا كنت تستخدم ChatGPT كاختصار في العمل، فقد تحتاج إلى توخي المزيد من الحذر، ويُمكن أن يؤدي استخدام الذكاء الاصطناعي في العمل إلى الإضرار بأدائك الوظيفي، إذا تم استخدامه لمهام خارج نطاق قدراته، حسبما وجد بحث جديد أجرته مجموعة بوسطن الاستشارية.
وأجرت مجموعة من الباحثين من بوسطن كونسلتينج جروب، وهارفارد، ووارتون، ومعهد ماساتشوستس للتكنولوجيا تجربة لمعرفة كيف يؤثر الوصول إلى الذكاء الاصطناعي على إنتاجية الموظفين الإداريين وجودة عملهم.
ولاختبار ذلك، قام الباحثون بشكل عشوائي بتعيين 758 استشاريًا في مجموعة بوسطن الاستشارية ضمن واحدة من ثلاث مجموعات: مجموعة لا يمكنها الوصول إلى الذكاء الاصطناعي؛ واحد مع إمكانية الوصول إلى ChatGPT المدعوم من GPT-4؛ وواحد لديه إمكانية الوصول إلى ChatGPT، بالإضافة إلى مقاطع فيديو ووثائق تعليمية حول الاستراتيجيات الهندسية السريعة، وبعد تحديد خطوط الأساس للأداء، تم تكليف الاستشاريين في كل مجموعة بواحدة من فئتين من المهام.
تضمنت إحدى الفئات 18 مهمة موجودة “داخل الحدود” لما يمكن أن يفعله الذكاء الاصطناعي، مثل تبادل الأفكار حول مفاهيم المشروبات المبتكرة أو الخروج بخطة عمل شاملة لمفهوم جديد للأحذية.
أما الفئة الأخرى فقد احتوت على المزيد من المهام المفتوحة التي توجد “خارج حدود” قدرات الذكاء الاصطناعي. وقالت الدراسة إنه في حين أن “الاستشاريين سيتفوقون” في هذه المهام، فإن “الذكاء الاصطناعي سيواجه صعوبات دون توجيهات واسعة النطاق”.
على سبيل المثال، طُلب من المستشارين المكلفين بهذه المجموعة من المهام تقديم توصيات إلى الرئيس التنفيذي لشركة افتراضية باستخدام البيانات المالية الداخلية والمقابلات مع المطلعين على الشركة – وهي معلومات لم يتمكن الذكاء الاصطناعي من الوصول إليها، كما وجد الباحثون اختلافات صارخة في نتائج المجموعات الثلاث، اعتمادًا على وصولهم إلى ChatGPT.
بالنسبة للمهام “داخل الحدود”، كان المستشارون الذين يستخدمون الذكاء الاصطناعي “أكثر إنتاجية بشكل ملحوظ” و”حققوا نتائج ذات جودة أعلى بكثير” من أولئك الذين لم يستخدموا برنامج الدردشة الآلي.
ومع ذلك، فإن الاستشاريين الذين يستخدمون الذكاء الاصطناعي لإكمال المهام “خارج الحدود” كانوا “أقل احتمالاً بنسبة 19 نقطة مئوية لإنتاج حلول صحيحة مقارنة بأولئك الذين لا يستخدمون الذكاء الاصطناعي”. وذلك لأنه وجد أن المستشارين في مجال الذكاء الاصطناعي يستمعون بشكل عشوائي إلى مخرجاته – حتى لو كانت الإجابات خاطئة، كما توضح هذه النتائج القدرات “غير المتكافئة” للذكاء الاصطناعي.
في حين تظهر نتائج الدراسة أن الذكاء الاصطناعي “جيد للغاية” في مساعدة البشر في بعض المهام، ويجب على البشر توخي الحذر عند استخدام التكنولوجيا لتجنب الأخطاء، حسبما قال سارين راجيندران، أحد الباحثين المشاركين في الدراسة، لـInsider في رسالة بالبريد الإلكتروني.
وأضاف: “يجب أن نكون حذرين عند استخدام GenAI”.
تُظهر النتائج التي توصلت إليها مجموعة BCG قصة تحذيرية للعاملين الذين يفكرون في استخدام ChatGPT للمساعدة في أداء وظائفهم. منذ ظهور ChatGPT في نوفمبر الماضي، كان العمال في مختلف الصناعات يستخدمون روبوت الدردشة المدعم بالذكاء الاصطناعي – أحيانًا دون إخبار رؤسائهم – لتطوير التعليمات البرمجية ، وإنشاء مواد تسويقية ، وإنشاء خطط الدروس، ومع ذلك، فإن مخرجات ChatGPT ليست مثالية ويمكن أن تحتوي على “هلوسة”.
تم انتقاد المنشور التكنولوجي CNET في وقت سابق من هذا العام بعد أن لاحظ القراء أن عددًا من المقالات التي تم إنشاؤها بواسطة الذكاء الاصطناعي تتضمن أخطاء واقعية.
اعتبارًا من 28 سبتمبر، حددت هيئة مراقبة وسائل الإعلام NewsGuard 487 موقعًا إخباريًا “غير موثوق به” تم إنشاؤه بواسطة الذكاء الاصطناعي مع “القليل من الإشراف البشري أو عدم وجوده على الإطلاق”.
في إعلان لشركة Bard من Google، ارتكب برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي خطأً واقعيًا عندما سُئل عن تلسكوب جيمس ويب الفضائي.
الأخطاء الناتجة عن الذكاء الاصطناعي قد تزداد سوءًا: في ورقة بحثية حديثة، وجد باحثو الذكاء الاصطناعي أن نماذج الذكاء الاصطناعي التوليدية يمكن تدريبها قريبًا على المحتوى الناتج عن الذكاء الاصطناعي – وهي ظاهرة يسمونها “انهيار النموذج”. وقد تكون النتيجة المزيد من المخرجات ذات الجودة المنخفضة في المستقبل القريب.
وكتب الباحثون: “مع استمرار توسع حدود قدرات الذكاء الاصطناعي، بشكل كبير في كثير من الأحيان، يصبح لزاما على المهنيين من البشر إعادة ضبط فهمهم للحدود وعلى المنظمات الاستعداد لعالم جديد من العمل يجمع بين البشر والذكاء الاصطناعي”.