تأثير الذكاء الاصطناعي على وظائف العمل في المستقبل

25

AI بالعربي – متابعات

“التدمير الإبداعي” هو أحد المفاهيم الأساسية للاقتصاد الذي عرّفه عالم الاقتصاد جوزيف شومبيتر عام 1942 بعملية الطفرة الصناعية التي تُحدِث ثورة مستمرة في البنية الاقتصادية من الداخل، من خلال تدمير البنية القديمة وخلق بنية أخرى جديدة، بطريقة مستمرة. هذا يعني حتمًا أن الوظائف القديمة ستختفي، ولكن نظرًا لأن التدمير الإبداعي مدعوم بالابتكار، فهذا يعني أيضًا ظهور وظائف جديدة.

ليس سراً أن أكبر ابتكار في هذا العقد هو الذكاء الاصطناعي، لذلك ما هي الوظائف التي يمكن أن يخلقها الذكاء الاصطناعي؟ هناك 3 مجالات رئيسية يمكن أن يتم فيها خلق فرص العمل وفقًا للورقة البحثية الجديدة للمنتدى الاقتصادي العالمي بعنوان “وظائف الغد: نماذج اللغة الكبيرة والوظائف”. – هؤلاء هم “المدربون” و”المفسرون” و”الداعمون”, وفقا لما نشرته الأنباء.

المدربون (Trainers)

المدربون هم في الأساس الأشخاص الذين يطورون الذكاء الاصطناعي, ومنهم المهندسون والعلماء الذين يعملون على نماذج اللغة الكبيرة (LLMs) التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدية مثل شات جي بي تي.

-إلا أن الأدوار المحددة في هذا المجال لا تنتمي فقط إلى المبرمجين الذين يصممون خوارزميات أكثر كفاءة, يقول تقرير وظائف الغد إن المهندسين الكهربائيين يمكن أن تُتاح لهم فرص أكبر بفضل زيادة الطلب على الرقائق الدقيقة المخصصة لتدريب وتشغيل نماذج اللغة الكبيرة.

تشمل وظائف “المدربين” الأخرى التي يمكن أن ينشئها الذكاء الاصطناعي مسؤولي الأنظمة الذين يقومون ببناء البنية التحتية للخوادم, ويقول المنتدى إن ضمان حصول هذه الأنظمة على الطاقة التي تحتاجها سيكون أمرًا بالغ الأهمية، لذلك يمكن أن تكون الوظائف في هندسة أنظمة الطاقة في ازدياد أيضًا.

المفسرون (Explainers)

بينما يقوم المدربون بالعمل خلف الكواليس على الذكاء الاصطناعي، سيكون المفسرون في الواجهة للمساعدة في تسهيل استخدام الذكاء الاصطناعي, سيقوم المفسرون بتصميم الواجهات التي تمكن الناس من التفاعل مع الذكاء الاصطناعي.

يقول المنتدى إنه يمكن اعتبارهم “مصممي تجربة المستخدم” لنماذج اللغة الكبيرة, قد يتذكر البعض أجهزة الكمبيوتر الشخصية الأولى وكيف كانوا يضطرون إلى كتابة سلسلة من الأوامر الفنية الدقيقة في MS – DOS لبدء تشغيل أجهزة الكمبيوتر الخاصة بهم.

وبالمثل، لا يزال العديد من نماذج اللغة الكبيرة اليوم تقنيًا للغاية، مما يعني أنها ستحتاج إلى واجهات مصممة لجعلها في متناول عامة الناس، كما يقول المنتدى, يمكن إشراك المفسرين في جعل نماذج اللغة الكبيرة تعمل مع أنواع مختلفة من مدخلات المستخدم.

 قد يعمل البعض مع الأوامر المكتوبة، بينما يستجيب البعض الآخر للصوت المنطوق, ويمكن أن يتضمن العمل التوضيحي إنشاء خطط إدارة التعلم المصممة خصيصًا لمهام معينة,  يقول تقرير وظائف الغد إن هذا قد يؤدي إلى نمو وظائف مساعدي الذكاء الاصطناعي أو المعلمين أو المدربين المتخصصين.

الداعمون (Sustainers)

سيتأكد الداعمون بشكل أساسي من استخدام أنظمة الذكاء الاصطناعي بأفضل طريقة ممكنة, من المحتمل أن تكون هناك ثلاثة أنواع رئيسية من الداعمين، وفقًا لتقرير المنتدى: وهم منشئو المحتوى، وأمناء البيانات، ومسؤولو الأخلاقيات والحوكمة.

منشئو محتوى – “الهندسة السريعة” وهي تخصص جديد يتضمن كتابة مطالبات نصية لجعل نماذج اللغة الكبيرة ينتج المحتوى الذي يريده المستخدم, بنفس الطريقة التي نملي بها الكلمات التي نكتبها في جوجل فنتائج البحث التي نتلقاها، تحتاج نماذج اللغة الكبيرة إلى مطالبات خاصة لإنتاج النتائج المطلوبة.

يقول المنتدى إن تحسين المطالبات سيسمح للجهات الداعمة للذكاء الاصطناعي بإنتاج محتوى متعمق بسرعة حول مواضيع مختلفة، وفي أي مجال, يتمتع الذكاء الاصطناعي بالقدرة على إنتاج المقالات والكتب ومواد التدريس والتدريب، وحتى القصص الكاملة للأفلام والمسلسلات التلفزيونية – وهي حقيقة أدت مؤخرًا إلى إضراب كتاّب السيناريو في هوليوود.

أمناء البيانات – تُظهر الهندسة الفورية أن ما تضعه في الذكاء الاصطناعي هو مفتاح ما تحصل عليه منه, بنفس القدر من الأهمية، فإن مدخلات نماذج اللغة الكبيرة هي مجموعات البيانات الكبيرة التي يتم تدريبهم عليها.

إذا لم تكن البيانات عالية الجودة، فلن تكون المخرجات عالية الجودة, سيتم تكليف أمناء البيانات بالتأكّد من أن نماذج اللغة الكبيرة لديها أفضل البيانات التي تدخل فيها, نظرًا لأن معظم بيانات التدريب يتم تنسيقها من النص المنشور على الإنترنت، فإن التحقق من جودة البيانات ونزاهتها أمر بالغ الأهمية، وسيؤدي إلى تطوير القوى العاملة المتخصصة الخاصة بها.

مسؤولو الأخلاقيات والحوكمة – يمكن أن تؤدي المشكلات المحيطة بجودة البيانات أيضًا إلى مشاكل أخلاقية في استخدام الذكاء الاصطناعي, قد يؤدي وجود لغة متحيزة في بيانات التدريب إلى قيام نماذج اللغة الكبيرة بإنتاج محتوى متحيز أو ضار أو غير أخلاقي.

سيكون مسؤولو الأخلاقيات والحوكمة مسؤولين عن التأكد من أن نماذج اللغة الكبيرة لا يتصرفون بهذه الطريقة, سيشمل ذلك اختبارًا مكثفًا للنظام قبل إصداره، ويمكن أن يؤدي إلى صعود مسؤولي السلامة والأخلاقيات في مجال الذكاء الاصطناعي, ومن الممكن أيضًا وجود مجال جديد تمامًا من التنظيم والقانون حول أخلاقيات الذكاء الاصطناعي والحوكمة، مما يؤدي إلى وظائف جديدة في هذه المجالات.

 

اترك رد

Your email address will not be published.