علماء: الذكاء الاصطناعي سيصحح أخطاؤه ذاتيًا

49

AI بالعربي – متابعات

يتميز الذكاء البشري بقدرته على التعلم من الأخطاء. في الغالب، لا نجد حلولاً للمسائل والمشكلات في محاولتنا الأولى وربما الثانية أو حتى الثالثة. وحينما نرتكب أخطاء مرة تلو أخرى، نبتكر أفكاراً جديدة ونتوصل إلى حلول من طريق استخدام مهارة أساسية تسمى التفكير أو التأمل الذاتي، تسمح لنا بالاستغراق في التفكير الجاد والتأمل في الأفكار والمواقف والدوافع وتقييمها، وتحليل أخطائنا، بالتالي، التوصل إلى استنباط الإجابات والحلول.

 

يبحث كثيرون اليوم عن الإجابات والحلول والردود لدى تطبيق الذكاء الاصطناعي “تشات جي بي تي” الذي يستخدم تقنية التعلم الآلي وقد طرحته شركة “أوبن أي آي” OpenAI في نوفمبر (تشرين الثاني) من العام الماضي. ومنذ ذلك الحين حظي باهتمام وانتشار واسعين، لا سيما أنه قادر على توليد نصوص من مقالات وأشعار وأغان ومحادثات لا تختلف أحياناً عن نتاجات البشر. ولكن هذا الذكاء نفسه، الذي وجدت نسخة منه طريقها إلى إحدى المدارس في “وادي السيليكون” لتؤدي دور مدرس اصطناعي ذكي، تبين أنه في مرات كثيرة يدخل مستخدميه في متاهات من الحكايات المفبركة، ويخفق في إيجاد الحلول أحياناً، أو يقدم “حلولاً” غير صحيحة. ولكن ماذا لو أنه استعان بالتفكير الذاتي؟

في ورقة بحثية لم تخضع بعد لمراجعة علماء نظراء تحدث عنها الموقع الإلكتروني “فيوتشريزم” المتخصص بمتابعة التطورات التكنولوجية، أشار فريق من البحاثة من “جامعة نورث إيسترن” في بوسطن و”معهد ماساتشوستس للتكنولوجيا” أن نماذج اللغة الكبيرة Large Language Model ، اختصاراً “أل أل أم” LLM، من الذكاء الاصطناعي التي تستخدم خوارزميات التعلم العميق لمعالجة وتحليل كميات كبيرة من البيانات النصية، ربما تكون قادرة على التعلم من أخطائها، تماماً على غرار البشر.

إن تلقينها كيفية القيام بذلك، بحسب الباحثين الذين نهضوا بالدراسة، ربما يدفع تقنيات الذكاء الاصطناعي إلى مرحلة جديدة من حل المشكلات والمسائل بشكل مستقل, وكتب الباحثون في الورقة البحثية أن “التفكير الذاتي يسمح للبشر بحل المسائل والمشكلات المستجدة بكفاءة من طريق عملية التجربة والخطأ. وبناء على البحوث الحديثة، نشير إلى أن التفكير، نهج يمنح “الوكيل الذكي” أو “المساعد الذكي” ذاكرة ديناميكية وقدرات من التفكير الذاتي بغية تعزيز أثر المنطق الموجود ومهارات اختيار الأفعال الخاصة بالمهمة”, بعبارة أخرى، يشكل منهجهم الذي يسمى “التفكير” إطار عمل لتعليم نماذج الذكاء الاصطناعي من طريق مدها بتعليمات تقضي بتطبيق أسلوب التجربة والخطأ على الردود التي تقدمها هذه الأنظمة.

الأتمتة الكاملة، نقدم استدلالاً مباشراً وفاعلاً يمكن المساعد الذكي من تحديد حالات الهلوسة بدقة، وتجنب التكرار في تسلسلات العمل، وفي بعض البيئات، إنشاء خريطة ذاكرة داخلية للبيئة المحددة”, يذكر أن هلوسات الذكاء الاصطناعي هي الردود والإجابات الواثقة التي تقدمها أنظمة الذكاء الاصطناعي على اختلافها التي لا مصدر لها ضمن بيانات التدريب، وعمليات التحقق والاختبار التي خضعت لها. قد تقدم برامج أو روبوتات الدردشة بيانات أو معلومات لا وجود لها ولا تمت إلى الحقيقة بصلة، بل وغير موجودة أو مضمنة في البيانات التي تدربت عليها في الأساس, باستخدام سلسلة من “مهمات اتخاذ القرار” الموحدة، وجد الباحثون أن منهجيتهم كانت قادرة على تحسين معدلات النجاح المحددة للنموذج الذكي بشكل كبير.

في تطور متصل، أورد العلماء أن بحثهم أجري باستخدام أنظمة الذكاء الاصطناعي التي تعمل بنظامي “جي بي تي-3″ GPT-3 و”جي بي تي-3.5” GPT-3.5، وهو عامل مهم، نظراً إلى أن شركة “أوبن أي آي” OpenAI  أصدرت تواً “جي بي تي-4 GPT-4 الأكثر قوة من الإصدارين المذكورين. على رغم أنه في منشور تناول الورقة البحثية، يفيد العلماء إنه حينما طُبِّقَ ذلك المنهج على “جي بي تي-4″، أعطى ما أطلقوا عليه “مساعد جي بي تي-“4 الذي يتميز ببعض التلقائية ويعتمد على التفكير”، إجابات صحيحة في 88 في المئة من المرات، متجاوزاً معدل نجاحه البالغ 67 في المئة قبل تمرسه بخاصية التفكير.

عموماً، برامج الذكاء الاصطناعي تخطئ كثيراً، ومع دمجها المستمر في مسارات العمل عبر مختلف الصناعات والبرامج، لا بد من إيجاد أطر عمل تعالج مآزقها. ويساعد هذا البحث في تطوير أدوات يمكنها التحقق من الردود غير الموثوقة لنماذج اللغات من خوارزميات الذكاء الاصطناعي.

علاوة على ذلك، فإن القليل من التفكير الذاتي لا يؤذي أحداً، بشراً أو آلة، ولا شك في أنه عند تطبيق هذا النهج في مختلف نماذج الذكاء الاصطناعي ستكون الأخيرة قادرة على حل مجموعة متنوعة من المهمات المعقدة التي ينفرد بها الذكاء البشري حالياً.

المصدر : اندبندنت عربية

اترك رد

Your email address will not be published.