“OpenAI” تسعى لاستخدام الذكاء الاصطناعي في تدريب نفسه

"OpenAI" تسعى لاستخدام الذكاء الاصطناعي في تدريب نفسه

Will Knight

يعتبر جيش المدربين البشريين أحد العناصر الرئيسية التي ساعدت ChatGPT على تحقيق نجاح كبير. هؤلاء المدربون قدموا توجيهات للنموذج الذكاء الاصطناعي حول ما يشكل مخرجات جيدة وسيئة.

الآن، تقول OpenAI أن إضافة المزيد من الذكاء الاصطناعي إلى هذا المزيج يمكن أن يساعد في جعل مساعدي الذكاء الاصطناعي أكثر ذكاءً وموثوقية. حيث يمكن للذكاء الاصطناعي المساعد دعم المدربين البشريين وتعزيز قدراتهم.

هذا النهج المتكامل بين الجهود البشرية والتقنية يهدف إلى تطوير مساعدي الذكاء الاصطناعي ليكونوا أكثر فعالية وموثوقية في تقديم المخرجات المرغوبة.

في تطوير ChatGPT، كانت OpenAI رائدة في استخدام التعلم المعزز مع التغذية الراجعة البشرية، أو ما يُعرف بـRLHF. تستخدم هذه التقنية مدخلات من المختبرين البشريين لضبط نموذج الذكاء الاصطناعي بحيث يتم تقييم مخرجاته لتكون أكثر تماسكًا، وأقل اعتراضًا، وأكثر دقة. تغذي التقييمات التي يقدمها المدربون خوارزمية توجه سلوك النموذج. لقد أثبتت هذه التقنية أنها حاسمة في جعل روبوتات الدردشة أكثر موثوقية وفائدة ومنعها من التصرف بشكل غير لائق.

“يعمل التعلم المعزز مع التغذية الراجعة البشرية بشكل جيد للغاية، لكنه يحتوي على بعض القيود الرئيسية”، يقول نات مكاليس، باحث في OpenAI ومشارك في العمل الجديد. على سبيل المثال، يمكن أن تكون التغذية الراجعة البشرية غير متسقة. ومن ناحية أخرى، يمكن أن يكون من الصعب حتى على البشر المهرة تقييم المخرجات المعقدة للغاية، مثل الأكواد البرمجية المتقدمة. ويمكن أن تعمل هذه العملية أيضًا على تحسين النموذج لإنتاج مخرجات تبدو مقنعة بدلاً من أن تكون دقيقة بالفعل.

طورت OpenAI نموذجًا جديدًا من خلال تحسين أقوى إصداراتها، GPT-4، لمساعدة المدربين البشريين المكلفين بتقييم الأكواد البرمجية. ووجدت الشركة أن النموذج الجديد، الذي أُطلق عليه اسم CriticGPT، يمكنه اكتشاف الأخطاء التي فاتت البشر، وأن الحكام البشريين وجدوا أن نقده للأكواد كان أفضل بنسبة 63 بالمئة من الوقت. ستنظر OpenAI في تمديد هذا النهج إلى مجالات تتجاوز الأكواد في المستقبل.

“نحن نبدأ العمل لدمج هذه التقنية في مجموعة المحادثات الخاصة بـRLHF لدينا”، يقول مكاليس. ويشير إلى أن النهج غير مثالي، حيث يمكن لـCriticGPT أيضًا أن يرتكب أخطاء من خلال التوهم، لكنه يضيف أن التقنية يمكن أن تساعد في جعل نماذج OpenAI وكذلك أدوات مثل ChatGPT أكثر دقة عن طريق تقليل الأخطاء في التدريب البشري. ويضيف أن هذا قد يكون أيضًا حاسمًا في مساعدة نماذج الذكاء الاصطناعي على أن تصبح أكثر ذكاءً، لأنه قد يسمح للبشر بمساعدة تدريب ذكاء اصطناعي يتجاوز قدراتهم الخاصة. “ومع استمرار تحسن النماذج، نتوقع أن الناس سيحتاجون إلى مزيد من المساعدة”، يقول مكاليس.

التقنية الجديدة هي واحدة من العديد من التقنيات التي يجري تطويرها حاليًا لتحسين النماذج اللغوية الكبيرة واستخلاص المزيد من القدرات منها. كما أنها جزء من جهد لضمان أن يتصرف الذكاء الاصطناعي بطرق مقبولة حتى مع زيادة قدراته.

في وقت سابق من هذا الشهر، أعلنت شركة Anthropic، المنافسة لـOpenAI والتي أسسها موظفون سابقون في OpenAI، عن نسخة أكثر قدرة من روبوت الدردشة الخاص بها، المسمى Claude، بفضل التحسينات في نظام تدريب النموذج والبيانات التي يتم تغذيته بها. روجت كل من Anthropic و OpenAI، مؤخرًا، لطرق جديدة لفحص نماذج الذكاء الاصطناعي لفهم كيفية وصولها إلى مخرجاتها من أجل منع السلوك غير المرغوب فيه مثل الخداع بشكل أفضل.

التقنية الجديدة قد تساعد OpenAI في تدريب نماذج ذكاء اصطناعي أكثر قوة، بينما تضمن أن تكون مخرجاتها أكثر مصداقية ومتوافقة مع القيم البشرية، خاصة إذا نجحت الشركة في نشرها في مجالات أكثر من مجرد الأكواد. وقالت OpenAI إنها تدرب نموذج الذكاء الاصطناعي الرئيسي التالي، ويبدو أن الشركة حريصة على إثبات جديتها في ضمان سلوكه. ويأتي ذلك بعد حل فريق بارز مخصص لتقييم المخاطر طويلة الأمد التي يشكلها الذكاء الاصطناعي. كان الفريق يقوده إيليا سوتسكيفر، المؤسس المشارك للشركة وعضو مجلس الإدارة السابق الذي دفع لفترة قصيرة الرئيس التنفيذي سام ألتمان للخروج من الشركة قبل أن يتراجع ويساعده على استعادة السيطرة. منذ ذلك الحين، انتقد العديد من أعضاء ذلك الفريق الشركة للتحرك بشكل محفوف بالمخاطر في سعيها لتطوير وترويج خوارزميات ذكاء اصطناعي قوية.

يقول ديلان هادفيلد-مينيل، أستاذ في معهد ماساتشوستس للتكنولوجيا، الذي يبحث في طرق توافق الذكاء الاصطناعي، إن فكرة استخدام نماذج الذكاء الاصطناعي لمساعدة تدريب نماذج أكثر قوة كانت متداولة منذ فترة. و”هذا تطور طبيعي جدًا”.

يشير هادفيلد-مينيل إلى أن الباحثين الذين طوروا في الأصل التقنيات المستخدمة في التعلم المعزز مع التغذية الراجعة البشرية ناقشوا أفكارًا ذات صلة قبل عدة سنوات. ويقول إنه من المبكر تحديد مدى قابلية التطبيق والقوة العامة لهذه التقنية. ويضيف: “قد يؤدي ذلك إلى قفزات كبيرة في القدرات الفردية، وقد يكون خطوة نحو نوع من التغذية الراجعة الأكثر فعالية على المدى الطويل”.

 

المصدر: WIRED

Related Posts

الذكاء الاصطناعي يلتهم المياه ويشعل أزمة بيئية في أوروبا

AI بالعربي – متابعات تسعى أوروبا إلى أن تكون مركزًا عالميًا للذكاء الاصطناعي، لكن هذا الطموح يصطدم بعقبة بيئية خطيرة: ندرة المياه. أعلنت المفوضية الأوروبية عن خطط لتوسيع سعة مراكز…

السعودية ممثلة في “سدايا” تترأس الشبكة العالمية للهيئات الإشرافية على الذكاء الاصطناعي

AI بالعربي – متابعات اختيرت المملكة العربية السعودية، ممثَّلةً في الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، رئيسة للشبكة العالمية رفيعة المستوى للهيئات الإشرافية على الذكاء الاصطناعي “GNAIS” التابعة لمنظمة الأمم…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 129 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 235 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 248 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 179 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 203 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

  • سبتمبر 18, 2025
  • 137 views
الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف