الذكاء الاصطناعي ليس ذكيا دائما في مكان العمل
سارة أوكونور
أجبر الوباء أصحاب العمل على التفكير مليا في مدى ثقتهم في موظفيهم. كان على عدد كبير من الشركات تطبيق نظام العمل عن بعد العام الماضي على نطاق لم تكن لتتخيله لولا الوباء. كثيرون كان ذلك مفاجأة سارة بالنسبة لهم؛ اكتشفوا أن بإمكانهم الاعتماد على الموظفين في أداء وظائفهم دون تكاسل. في الواقع تشير دراسات إلى أن العاملين في المنزل – بعيدا عن جعل الأمر سهلا – يعملون ساعات أكثر من أي وقت مضى.
لكن بعض أصحاب العمل لم يستطيعوا ترك الأمور تمضي بسلاسة. بسبب خوفهم من فكرة غياب الموظفين عن أنظارهم، هرعوا فجأة إلى شراء برامج لمراقبتهم، وهي برامج يزعم كثير منها أنها تستخدم الذكاء الاصطناعي لرصد المخالفات وقياس الإنتاجية. توجد الآن سوق مزدهرة للأنظمة السحابية التي تعد بفرض الانضباط على العاملين عن بعد. يقدم بعضها، مثل كونتروليو Controlio، “وضع التخفي” الذي يجعل النظام “غير مرئي تماما للمستخدم – لا توجد رموز على الشريط أو عمليات في إدارة المهام”. (أخبرتني كونتروليو أنها توفر أيضا “وضع الامتثال للائحة العامة لحماية البيانات” الذي يحد من جمع البيانات، وخيارا لتحذير الموظفين من أنهم يخضعون للمراقبة).
مع انتشار الذكاء الاصطناعي بسرعة، لكن بهدوء في منازل الناس، كان من المناسب تماما بالنسبة للاتحاد الأوروبي أن ينشر في الأسبوع الماضي مسودة القواعد حول كيفية استخدامه في مجموعة من الجوانب المختلفة. تنص القواعد المقترحة على أن الذكاء الاصطناعي المستخدم “لتوظيف واختيار الأشخاص، ولاتخاذ قرارات بشأن الترقية وإنهاء الخدمة وتخصيص المهام، ورصد أو تقييم الأشخاص في العلاقات التعاقدية المتعلقة بالعمل” يجب تصنيفه على أنه “عالي المخاطر”. سيتعين على مقدمي أنظمة الذكاء الاصطناعي “عالية المخاطر” الوفاء بالتزامات معينة، مثل تقديم معلومات واضحة حول كيفية عملها، واستخدام مجموعات بيانات عالية الجودة، والسماح بالإشراف البشري.
بروكسل محقة في وصف الذكاء الاصطناعي في العمل بأنه محفوف بالمخاطر. في الأغلب ما يكون هناك خلل كبير في القوة بين صاحب العمل والموظف، خاصة في أماكن العمل الخالية من التفاوض الجماعي. إذا كنت ترغب الحصول على وظيفة أو الاحتفاظ بها، فقد توافق على أشياء لن تكون مرتاحا لها بخلاف ذلك.
يمكن أن يكون لما يحدث في العمل تأثير كبير على بقية حياتك، والعكس صحيح. عندما تحدثت إلى موظفة في مركز اتصال في الولايات المتحدة كانت تخضع للمراقبة من قبل الذكاء الاصطناعي، لم تستطع معرفة سبب تصنيف الخوارزمية لها بشكل سيئ، بينما كان المشرفون البشريون يقدمون عنها دائما تقييمات جيدة. لقد اشتبهت في أن الذكاء الاصطناعي كان يعاني فهم لهجتها، لكن لم يكن لديها طريقة لتحديه. أثرت التصنيفات في مدفوعات المكافآت الخاصة بها، وهي جزء كبير من أجرها الشهري. يعد عدم وضوح الخط الفاصل بين العمل والمنزل سببا آخر لاعتبار الذكاء الاصطناعي في مكان العمل مشكلة محتملة. مثلا، شهد الاتحاد الدولي للعاملين في قطاع الخدمات UNI Global Union زيادة حادة في عدد موظفي مراكز الاتصال الذين يعملون من المنزل، والذين تتم مراقبتهم بواسطة كاميرات الويب التي تدعم الذكاء الاصطناعي.
هذا لا يعني أن كل الذكاء الاصطناعي في العمل يمثل مشكلة. كثيرا ما يتخذ المديرون البشريون قرارات متحيزة. قد يساعدهم الذكاء الاصطناعي على القيام بعمل أفضل في توظيف قوة عاملة متنوعة، والترقية على أساس الجدارة بدلا من المحسوبية. لكن يجب أن يكون للموظفين الحق في معرفة متى يتم استخدام الذكاء الاصطناعي، وكيف يعمل، والقدرة على الطعن في أحكامه. “الكمبيوتر يقول لا” ليس جوابا كافيا عندما تكون وظيفتك على المحك.
مزيد من الشفافية قد يساعد أيضا في الحد من انتشار ما يسميه فاليريو دي ستيفانو، أستاذ قانون العمل في بلجيكا، الذكاء الاصطناعي “زيت الثعبان”: منتجات في السوق تدعي أنها تستخدم الذكاء الاصطناعي، لكنها في الحقيقة ليست من هذا القبيل. يزعم كثير ما يسمى أنظمة الذكاء الاصطناعي أنها تحسب “درجات الإنتاجية” الفردية للعاملين، مثلا، لكن المقاييس الموجودة تحت الغطاء أساسية مثل عدد المرات التي يرسل فيها الشخص رسائل البريد الإلكتروني (شخصيا، عد هذا مؤشرا مضادا للإنتاجية الحقيقية). لا ينبغي استخدام الموظفين كخنازير غينيا لإنتاج تقييمات علمية زائفة في الأغلب ما تحل محل الإدارة السليمة.
لكن لوائح الاتحاد الأوروبي بصيغتها الحالية قد لا تكون على مستوى هذا التحدي. سيكون العبء في البداية على عاتق مزودي أنظمة الذكاء الاصطناعي لتقييم امتثالهم للقواعد. وفي غضون ذلك، يتوقع من الدول الأعضاء تعيين سلطة وطنية “للإشراف على التطبيق والتنفيذ” وتوفير “مراقبة السوق”. يقول دي ستيفانو، “التقييم الذاتي ليس مزحة، لا أحد يقول إنه معدوم الفائدة تماما، لكنه قد لا يكون كافيا في مكان العمل”. كما يجادل بأن القواعد يجب ألا تصبح سقفا جديدا للوائح في الاتحاد الأوروبي، لأن دولا مثل فرنسا وألمانيا ذهبت بالفعل إلى أبعد من ذلك للحد من بعض أنواع المراقبة.
الاتحاد الأوروبي محق في القلق بشأن كيفية حماية العاملين من المخاطر التي تشكلها الآلات الذكية. ومن الأهمية بمكان حمايتهم من الغبية منها.