دراسة: الذكاء الاصطناعي يفضّل الإجابات المألوفة رغم التحديثات في المعطيات

دراسة: الذكاء الاصطناعي يفضّل الإجابات المألوفة رغم التحديثات في المعطيات

AI بالعربي – متابعات

كشفت دراسة حديثة أجرتها كلية إيكان للطب في الولايات المتحدة عن ميل نماذج الذكاء الاصطناعي المتقدمة إلى التمسك بالإجابات الشائعة، حتى عند تقديم معلومات جديدة تُناقض تلك الإجابات، ما يثير تساؤلات بشأن مدى موثوقية هذه النماذج في البيئات الحساسة مثل الرعاية الصحية.

الدراسة، التي استهدفت تقييم أداء نماذج اللغة الكبيرة – مثل ChatGPT – في التعامل مع سيناريوهات أخلاقية طبية معقدة، أظهرت أن هذه النماذج قد تفشل في ملاحظة تغييرات دقيقة، وتواصل تقديم نفس الإجابات التقليدية دون اعتبار للمعطيات المستجدة.

وأوضح الباحثون أنهم أجروا تعديلات طفيفة على ألغاز معرفية شهيرة تتطلب “تفكيرًا جانبيًا” وإبداعيًا، بهدف معرفة ما إذا كانت النماذج قادرة على التكيف مع التغييرات، أم أنها ستظل حبيسة الأنماط القديمة. النتائج كشفت عن “نقاط عمياء” في طريقة استدلال الذكاء الاصطناعي، حيث بدا أن النماذج تقفز إلى استنتاجات مبنية على نسخ سابقة من السيناريوهات، دون تحليل دقيق للمعطيات المعدلة.

أمثلة تكشف عن محدودية التكيف

في أحد الأمثلة التي استخدمها الباحثون، أعادوا صياغة “معضلة الجراح” الكلاسيكية التي تتناول قضية التحيز الجنساني. ففي النسخة الأصلية، يُصاب صبي ووالده في حادث، وعند نقله إلى المستشفى، يقول الجراح: “لا أستطيع إجراء العملية، هذا ابني!”، لتكون المفاجأة أن الجراح هي والدته. أما في النسخة المعدلة، فقد تم التصريح بأن والده هو الجراح، ما يزيل الغموض بالكامل. ومع ذلك، استمرت بعض النماذج في تقديم إجابات تفترض أن الجراح هي الأم، متجاهلة التعديل الأساسي.

وفي مثال آخر، اختبر الباحثون ردود الذكاء الاصطناعي تجاه معضلة تتعلق برفض نقل الدم لطفل من قِبل والدَين متدينَين. وبعد تغيير السيناريو ليُفصح عن موافقة الأبوين، ظلت بعض النماذج توصي بتجاوز الرفض، كما لو أن التعديل لم يُذكر أصلًا.

تحذير من الاعتماد غير المشروط

علق الدكتور إيال كلانج، كبير مسؤولي الذكاء التوليدي في كلية إيكان، على نتائج الدراسة قائلًا: “رغم القدرات الهائلة لأنظمة الذكاء الاصطناعي، إلا أن دراستنا أثبتت أنها قد تلجأ تلقائيًا إلى الحلول الأكثر شيوعًا أو بديهية، حتى عندما تتجاهل تلك الحلول تفاصيل أساسية قد تغيّر مجرى القرار تمامًا”.

وأضاف: “في الاستخدام اليومي، قد تمر هذه الأخطاء دون ملاحظة، لكن في القطاع الطبي، حيث تحكم الأخلاقيات والدقة قرارات حساسة، فإن تجاهل الفروقات الدقيقة قد يؤدي إلى نتائج كارثية على المرضى”.

دور داعم لا بديل

ورغم الانتقادات، شدد الباحثون على أن نتائج الدراسة لا تعني إقصاء الذكاء الاصطناعي من الممارسات الطبية، بل تسلط الضوء على ضرورة وجود إشراف بشري يقظ، خاصة في الحالات التي تتطلب حكمًا أخلاقيًا أو عاطفيًا عاليًا.

وأكدت الدراسة أن الذكاء الاصطناعي يظل أداة مفيدة وقوية في دعم الكفاءات الطبية، لكنه لا يجب أن يُعامل كبديل للخبرة السريرية أو للحُكم البشري، بل كوسيلة لتعزيزها وتكميلها، خاصة في القرارات المعقدة أو ذات المخاطر العالية.

ويأمل الباحثون أن تُسهم نتائج الدراسة في تطوير طرق أكثر موثوقية وتوازنًا لإدماج الذكاء الاصطناعي ضمن منظومة الرعاية الصحية، بما يضمن مراعاة الجوانب الأخلاقية والإنسانية في اتخاذ القرار الطبي.