ميزات وقيود الذكاء الاصطناعي التوليدي في ChatGPT
AI بالعربي – خاص
يحظى الذكاء الاصطناعي التوليدي باهتمام كبير من الجمهور والمستثمرين، لكنهم يتجاهلون مجازفة أساسية.
عندما تم إطلاق ChatGPT في نوفمبر، فسمح للمستخدمين بإرسال أسئلة إلى روبوت محادثة والحصول على ردود من إنتاج الذكاء الاصطناعي، الأمر الذي أدخل شبكات الإنترنت في حالة جنون، وأعلن قادة الفكر أن التكنولوجيا الجديدة يمكن أن تحول القطاعات من وسائل الإعلام إلى الرعاية الصحية. “لقد اجتازت مؤخرًا جميع الأجزاء الثلاثة من امتحان الترخيص الطبي الأميركي”.
واستثمرت Microsoft بالفعل مليارات الدولارات في شراكتها مع المنشئ OpenAI، بهدف نشر التكنولوجيا على نطاق عالمي، مثل دمجها في محرك البحث Bing؛ لا شك أن المديرين التنفيذيين يأملون في أن يساعد هذا عملاق التكنولوجيا الذي تأخر في البحث، على اللحاق بشركة Google الرائدة في السوق.
إظهار نتائج أسرع بكثير من البشر
ChatGPT هو نوع واحد فقط من الذكاء الاصطناعي التوليدي، وعند إعطائه مجموعة بيانات تدريبية يكون قادرًا على توليد بيانات جديدة بناء عليها، مثل الصور، والأصوات، أو في حالة روبوت المحادثة النص، يُمكن أن تنتج نماذج الذكاء الاصطناعي التوليدية نتائج أسرع بكثير من البشر، لذلك يمكن إنشاء قيمة هائلة، تخيل على سبيل المثال، بيئة إنتاج أفلام يولد فيها الذكاء الاصطناعي مناظر طبيعية وشخصيات جديدة متقنة دون الاعتماد على العين البشرية.
قيود الذكاء الاصطناعي التوليدي
ومع ذلك، فإن الذكاء الاصطناعي التوليدي ليس هو الحل لكل حالة أو صناعة، عندما يتعلق الأمر بالألعاب والفيديو والصور وحتى القصائد، يمكن أن تنتج مُخرجات شيقة ومفيدة؛ ولكن عند التعامل مع التطبيقات ذات المهام الحرجة، والمواقف التي تكون فيها الأخطاء مكلفة للغاية، أو عندما لا نريد التحيز، فقد يكون ذلك خطيرًا للغاية.
على سبيل المثال، منشأة رعاية صحية في منطقة نائية ذات موارد محدودة، حيث يتم استخدام الذكاء الاصطناعي لتحسين التشخيص وتخطيط العلاج، أو مدرسة حيث يُمكن لمعلم واحد توفير تدريب شخصي للطلاب المختلفين بناءً على مستويات مهاراتهم الفريدة من خلال تخطيط الدروس الموجه بالذكاء الاصطناعي.
في هذه المواقف، قد يبدو ظاهريًا، أن الذكاء الاصطناعي التوليدي يخلق قيمة ولكن في الواقع، قد يؤدي إلى مجموعة من التعقيدات، كيف نعرف أن التشخيصات صحيحة؟ ماذا عن التحيز الذي قد يكون متأصلاً في المواد التعليمية؟.
نماذج “الصندوق الأسود”
تعتبر نماذج الذكاء الاصطناعي التوليدية نماذج “الصندوق الأسود”، من المستحيل أن نفهم كيف يتوصلون إلى مخرجاتهم، حيث لا يتم توفير المنطق الأساسي، وغالبًا ما يكافح الباحثون المحترفون لفهم الأعمال الداخلية لمثل هذه النماذج، ومن المعروف أنه من الصعب، على سبيل المثال، تحديد ما الذي يجعل الذكاء الاصطناعي يتعرف بشكل صحيح على صورة عود الثقاب.
20٪ من إجابات ChatGPT مختلفة
باعتبارك مستخدمًا عاديًا لـChatGPT أو نموذجًا توليديًا آخر، فقد يكون لديك فكرة أقل عما تتكون منه بيانات التدريب الأولية، اسأل ChatGPT من أين تأتي بياناته، وسوف يخبرك ببساطة أنه تم تدريبه على “مجموعة متنوعة من البيانات من الإنترنت”.
هذا يُمكن أن يؤدي إلى بعض المواقف الخطرة، نظرًا لأنه لا يمكنك فهم العلاقات والتمثيلات الداخلية التي تعلمها النموذج من البيانات أو معرفة ميزات البيانات الأكثر أهمية للنموذج، لا يمكنك فهم سبب قيام النموذج بعمل تنبؤات معينة، وهذا يجعل من الصعب اكتشاف أو تصحيح الأخطاء أو التحيزات في النموذج.
سجل مستخدمو الإنترنت بالفعل حالات قدم فيها ChatGPT إجابات خاطئة أو مشكوك فيها، بدءًا من الفشل في لعبة الشطرنج إلى إنشاء كود Python الذي يحدد من يجب تعذيبه،وهذه هي الحالات التي كان من الواضح فيها أن الإجابة كانت خاطئة، حسب بعض التقديرات، فإن 20٪ من إجابات ChatGPT مختلقة، مع تحسن تقنية الذكاء الاصطناعي، من المتصور أن نتمكن من دخول عالم تقدم فيه روبوتات الدردشة الواثقة بالذكاء الاصطناعي إجابات تبدو صحيحة، ولا يمكننا معرفة الفرق.
جادل الكثير بأنه يجب أن نكون مُتحمسين ولكن المضي قدمًا بحذر؛ فيُمكن أن يوفر الذكاء الاصطناعي التوليدي قيمة تجارية هائلة؛ لذلك فإن هذا الخط من الحجج يذهب، مع إدراكنا للمخاطر، يجب أن نركز على طرق استخدام هذه النماذج في المواقف العملية، ربما عن طريق تزويدهم بتدريب إضافي على أمل تقليل الإجابة الخاطئة أو معدل “الهلوسة” المرتفع.
ومع ذلك، قد لا يكون التدريب كافيًا، ببساطة عن طريق تدريب النماذج لتحقيق النتائج المرجوة، يُمكننا أن نتصور وضعًا يكافأ فيه الذكاء الاصطناعي على إنتاج النتائج التي يعتبرها حكامهم البشريون ناجحة، تحفيزهم على خداعنا عن قصد، من الناحية الافتراضية، يُمكن أن يتصاعد هذا إلى موقف يتعلم فيه الذكاء الاصطناعي تجنب الوقوع في فخ وبناء نماذج متطورة لتحقيق هذه الغاية، حتى، كما توقع البعض هزيمة الإنسانية.
نموذج الصندوق الأبيض القابل للتفسير
ما البديل؟ بدلاً من التركيز على كيفية تدريبنا لنماذج الذكاء الاصطناعي التوليدية، يُمكننا استخدام نماذج مثل الصندوق الأبيض أو ML القابل للتفسير، على عكس نماذج الصندوق الأسود مثل الذكاء الاصطناعي التوليدي، فإن نموذج الصندوق الأبيض يجعل من السهل فهم كيفية قيام النموذج بتنبؤاته والعوامل التي يأخذها في الاعتبار.
على الرغم من أن نماذج الصندوق الأبيض قد تكون مُعقدة بالمعنى الحسابي، إلا أنها أسهل في التفسير، لأنها تتضمن تفسيرات وسياقات، قد يخبرك إصدار مربع أبيض من ChatGPT بما يعتقد أنه الإجابة الصحيحة، ولكن حدد مدى ثقته في أنه، في الواقع، الإجابة الصحيحة “هل هو واثق بنسبة 50٪ أم 100٪؟، سيعلمك أيضًا كيف جاءت من هذه الإجابة أي ما هي مدخلات البيانات التي استندت إليها”، ويسمح لك بمشاهدة إصدارات أخرى من نفس الإجابة، مما يتيح للمستخدم تحديد ما إذا كان يمكن الوثوق بالنتائج.
قد لا يكون هذا ضروريًا لروبوت محادثة بسيط، ومع ذلك، في حالة يمكن أن يكون للإجابة الخاطئة فيها تداعيات كبيرة “التعليم والتصنيع والرعاية الصحية”، فإن وجود مثل هذا السياق يمكن أن يغير الحياة، إذا كان الطبيب يستخدم الذكاء الاصطناعي لإجراء التشخيص ولكن يمكنه معرفة مدى ثقة البرنامج في النتيجة، فإن الموقف يكون أقل خطورة بكثير مما لو كان الطبيب يعتمد ببساطة في جميع قراراته على ناتج خوارزمية غامضة.
الحقيقة هي أن الذكاء الاصطناعي سيلعب دورًا رئيسيًا في قطاع الأعمال والمجتمع للمضي قدمًا، ومع ذلك، فإن الأمر متروك لنا لاختيار النوع المناسب من الذكاء الاصطناعي للوضع الصحيح.