تأثير الذكاء الاصطناعي على وظائف العمل في المستقبل

AI بالعربي – متابعات

“التدمير الإبداعي” هو أحد المفاهيم الأساسية للاقتصاد الذي عرّفه عالم الاقتصاد جوزيف شومبيتر عام 1942 بعملية الطفرة الصناعية التي تُحدِث ثورة مستمرة في البنية الاقتصادية من الداخل، من خلال تدمير البنية القديمة وخلق بنية أخرى جديدة، بطريقة مستمرة. هذا يعني حتمًا أن الوظائف القديمة ستختفي، ولكن نظرًا لأن التدمير الإبداعي مدعوم بالابتكار، فهذا يعني أيضًا ظهور وظائف جديدة.

ليس سراً أن أكبر ابتكار في هذا العقد هو الذكاء الاصطناعي، لذلك ما هي الوظائف التي يمكن أن يخلقها الذكاء الاصطناعي؟ هناك 3 مجالات رئيسية يمكن أن يتم فيها خلق فرص العمل وفقًا للورقة البحثية الجديدة للمنتدى الاقتصادي العالمي بعنوان “وظائف الغد: نماذج اللغة الكبيرة والوظائف”. – هؤلاء هم “المدربون” و”المفسرون” و”الداعمون”, وفقا لما نشرته الأنباء.

المدربون (Trainers)

المدربون هم في الأساس الأشخاص الذين يطورون الذكاء الاصطناعي, ومنهم المهندسون والعلماء الذين يعملون على نماذج اللغة الكبيرة (LLMs) التي تعتمد عليها أدوات الذكاء الاصطناعي التوليدية مثل شات جي بي تي.

-إلا أن الأدوار المحددة في هذا المجال لا تنتمي فقط إلى المبرمجين الذين يصممون خوارزميات أكثر كفاءة, يقول تقرير وظائف الغد إن المهندسين الكهربائيين يمكن أن تُتاح لهم فرص أكبر بفضل زيادة الطلب على الرقائق الدقيقة المخصصة لتدريب وتشغيل نماذج اللغة الكبيرة.

تشمل وظائف “المدربين” الأخرى التي يمكن أن ينشئها الذكاء الاصطناعي مسؤولي الأنظمة الذين يقومون ببناء البنية التحتية للخوادم, ويقول المنتدى إن ضمان حصول هذه الأنظمة على الطاقة التي تحتاجها سيكون أمرًا بالغ الأهمية، لذلك يمكن أن تكون الوظائف في هندسة أنظمة الطاقة في ازدياد أيضًا.

المفسرون (Explainers)

بينما يقوم المدربون بالعمل خلف الكواليس على الذكاء الاصطناعي، سيكون المفسرون في الواجهة للمساعدة في تسهيل استخدام الذكاء الاصطناعي, سيقوم المفسرون بتصميم الواجهات التي تمكن الناس من التفاعل مع الذكاء الاصطناعي.

يقول المنتدى إنه يمكن اعتبارهم “مصممي تجربة المستخدم” لنماذج اللغة الكبيرة, قد يتذكر البعض أجهزة الكمبيوتر الشخصية الأولى وكيف كانوا يضطرون إلى كتابة سلسلة من الأوامر الفنية الدقيقة في MS – DOS لبدء تشغيل أجهزة الكمبيوتر الخاصة بهم.

وبالمثل، لا يزال العديد من نماذج اللغة الكبيرة اليوم تقنيًا للغاية، مما يعني أنها ستحتاج إلى واجهات مصممة لجعلها في متناول عامة الناس، كما يقول المنتدى, يمكن إشراك المفسرين في جعل نماذج اللغة الكبيرة تعمل مع أنواع مختلفة من مدخلات المستخدم.

 قد يعمل البعض مع الأوامر المكتوبة، بينما يستجيب البعض الآخر للصوت المنطوق, ويمكن أن يتضمن العمل التوضيحي إنشاء خطط إدارة التعلم المصممة خصيصًا لمهام معينة,  يقول تقرير وظائف الغد إن هذا قد يؤدي إلى نمو وظائف مساعدي الذكاء الاصطناعي أو المعلمين أو المدربين المتخصصين.

الداعمون (Sustainers)

سيتأكد الداعمون بشكل أساسي من استخدام أنظمة الذكاء الاصطناعي بأفضل طريقة ممكنة, من المحتمل أن تكون هناك ثلاثة أنواع رئيسية من الداعمين، وفقًا لتقرير المنتدى: وهم منشئو المحتوى، وأمناء البيانات، ومسؤولو الأخلاقيات والحوكمة.

منشئو محتوى – “الهندسة السريعة” وهي تخصص جديد يتضمن كتابة مطالبات نصية لجعل نماذج اللغة الكبيرة ينتج المحتوى الذي يريده المستخدم, بنفس الطريقة التي نملي بها الكلمات التي نكتبها في جوجل فنتائج البحث التي نتلقاها، تحتاج نماذج اللغة الكبيرة إلى مطالبات خاصة لإنتاج النتائج المطلوبة.

يقول المنتدى إن تحسين المطالبات سيسمح للجهات الداعمة للذكاء الاصطناعي بإنتاج محتوى متعمق بسرعة حول مواضيع مختلفة، وفي أي مجال, يتمتع الذكاء الاصطناعي بالقدرة على إنتاج المقالات والكتب ومواد التدريس والتدريب، وحتى القصص الكاملة للأفلام والمسلسلات التلفزيونية – وهي حقيقة أدت مؤخرًا إلى إضراب كتاّب السيناريو في هوليوود.

أمناء البيانات – تُظهر الهندسة الفورية أن ما تضعه في الذكاء الاصطناعي هو مفتاح ما تحصل عليه منه, بنفس القدر من الأهمية، فإن مدخلات نماذج اللغة الكبيرة هي مجموعات البيانات الكبيرة التي يتم تدريبهم عليها.

إذا لم تكن البيانات عالية الجودة، فلن تكون المخرجات عالية الجودة, سيتم تكليف أمناء البيانات بالتأكّد من أن نماذج اللغة الكبيرة لديها أفضل البيانات التي تدخل فيها, نظرًا لأن معظم بيانات التدريب يتم تنسيقها من النص المنشور على الإنترنت، فإن التحقق من جودة البيانات ونزاهتها أمر بالغ الأهمية، وسيؤدي إلى تطوير القوى العاملة المتخصصة الخاصة بها.

مسؤولو الأخلاقيات والحوكمة – يمكن أن تؤدي المشكلات المحيطة بجودة البيانات أيضًا إلى مشاكل أخلاقية في استخدام الذكاء الاصطناعي, قد يؤدي وجود لغة متحيزة في بيانات التدريب إلى قيام نماذج اللغة الكبيرة بإنتاج محتوى متحيز أو ضار أو غير أخلاقي.

سيكون مسؤولو الأخلاقيات والحوكمة مسؤولين عن التأكد من أن نماذج اللغة الكبيرة لا يتصرفون بهذه الطريقة, سيشمل ذلك اختبارًا مكثفًا للنظام قبل إصداره، ويمكن أن يؤدي إلى صعود مسؤولي السلامة والأخلاقيات في مجال الذكاء الاصطناعي, ومن الممكن أيضًا وجود مجال جديد تمامًا من التنظيم والقانون حول أخلاقيات الذكاء الاصطناعي والحوكمة، مما يؤدي إلى وظائف جديدة في هذه المجالات.

 

Related Posts

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية

تقرير أميركي يحذر من خطورة نماذج الذكاء الاصطناعي الصينية AI بالعربي – متابعات دخل سباق الذكاء الاصطناعي بين الولايات المتحدة والصين مرحلة أكثر سخونة، بعد أن أصدر مركز معايير الذكاء…

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار

استثمارات رأس المال الجريء تتدفق نحو الذكاء الاصطناعي بقيمة تقارب 193 مليار دولار AI بالعربي – متابعات سجّل قطاع الذكاء الاصطناعي طفرة غير مسبوقة في جذب استثمارات رأس المال الجريء،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 137 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 137 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 77 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 85 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 44 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق

  • سبتمبر 15, 2025
  • 50 views
الإعلام والذكاء الاصطناعي.. ستة مصادر للقلق