AI بالعربي – متابعات
نشرت جامعة جبل سيناء في نيويورك دراسة جديدة تشير إلى أن أدوات الذكاء الاصطناعي قد تتعامل مع المعلومات الطبية الخاطئة بوصفها صحيحة، عندما تأتي بصياغة توحي بالموثوقية، ثم تبني عليها نصائح طبية غير دقيقة، وفق ما أورده تقرير لوكالة “رويترز”
كيف “تُخدع” النماذج الطبية بسهولة الصياغة
ترى الدراسة أن المشكلة لا ترتبط فقط بصحة المحتوى، بل بطريقة عرضه، إذ يوضح الدكتور إيال كلانج من كلية إيكان للطب أن النماذج تميل لافتراض صحة اللغة الطبية رسميًّا، ويضيف أن “الصياغة” قد تُرجّح القبول حتى لو كانت المعلومة خاطئة
20 نموذجًا بين المفتوح والمغلق تحت الاختبار
اختبرت الدراسة 20 نموذجًا مختلفًا للذكاء الاصطناعي، شملت نماذج مفتوحة المصدر وأخرى مغلقة، كما ضمت نماذج عامة وأخرى طبية متخصصة، بهدف قياس قابلية النماذج لتبنّي معلومات مضللة في سياقات طبية متنوعة
ثلاثة أنواع من البيانات صنعت “فخ الثقة”
اعتمد الباحثون على ثلاثة مسارات من النصوص التي تتضمن بيانات طبية واقعية وشائعة، شملت تقارير طبية حقيقية من مستشفيات تحتوي على معلومة واحدة خاطئة، وشائعات طبية متداولة عبر منصات التواصل الاجتماعي، إضافة إلى 300 تقرير طبي حقيقي كتبه أطباء ويتضمن معلومات صحيحة
نتائج مقلقة عند انتقال الخطأ إلى “السجل الطبي”
سجلت الدراسة أن نماذج الذكاء الاصطناعي صدّقت المعلومات الخاطئة بنسبة 32% في المتوسط، لكن النسبة ارتفعت إلى قرابة 47% عندما ظهرت المعلومة الخاطئة داخل تقارير طبية، وفق ما نقلته “رويترز”، وهو ما يعكس تأثير “هيبة المصدر” على استجابة النموذج
لماذا تبدو ملاحظات الأطباء أكثر إقناعًا للنموذج
ترجّح النتائج أن النماذج تتعامل مع مذكرات الأطباء وتقارير المستشفى باعتبارها محتوى عالي الموثوقية، لذلك قد تُمرّر الأخطاء بسهولة أكبر من أخطاء منصات التواصل، حتى عندما تكون المعلومة نفسها غير صحيحة
نماذج أصغر تُخطئ أكثر ونماذج التفكير تُقلل الانخداع
أشار تقرير منفصل نشره موقع “Euronews” إلى أن الدراسة شملت نماذج شهيرة من شركات متعددة، بينها مايكروسوفت وعلي بابا وجوجل وميتا، وذكر أن النماذج ذات المعايير الأقل صدّقت المعلومات الخاطئة في 60% من الحالات، بينما انخفضت النسبة إلى 10% لدى نماذج التفكير العميق مثل “ChatGPT 4o” وفق ما أورده التقرير
النماذج الطبية المتخصصة لم تتفوق كما كان متوقعًا
تلفت الدراسة إلى أن النماذج المصممة للاستخدامات الطبية أبدت ميلًا أعلى لتصديق المعلومات الخاطئة مقارنة ببعض النماذج العامة الأقوى، ما يعني أن تخصيص النموذج للقطاع الطبي لا يضمن تلقائيًّا تحسن مقاومة التضليل أو تقليل “الهلوسة الطبية”
توسع الاستخدام الطبي يرفع المخاطر على المرضى والعيادات
يتزامن ذلك مع اتساع استخدام الذكاء الاصطناعي في المجال الصحي، إذ بدأ بعض الأطباء يعتمدون عليه لمراجعة تقارير المرضى والفحوصات، كما يلجأ مستخدمون عاديون إلى أدوات المحادثة للحصول على تفسيرات أو نصائح عامة، وفق ما أشار إليه تقرير “رويترز”، ما يرفع أهمية ضبط الجودة والتحقق قبل اعتماد أي مخرجات
جوجل تراجع مزايا التلخيص الطبي بعد أخطاء سابقة
وفي سياق متصل، أشار تقرير نشرته “الغارديان” في وقت سابق إلى أن جوجل أزالت بعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من نتائج البحث في الأسئلة الطبية، بعد أخطاء وُصفت بالمقلقة، وهو ما يعزز الحاجة إلى سياسات أكثر صرامة عندما يتعلق الأمر بالصحة العامة
ما الذي تعنيه النتائج للمستخدمين وصناع القرار
تعكس هذه النتائج تحديًا أساسيًّا في “سلامة الذكاء الاصطناعي الطبي”، فالنموذج قد يخلط بين “الموثوق شكليًّا” و”الصحيح علميًّا”، لذلك تصبح الضوابط المؤسسية، وتدقيق المصادر، وتصميم واجهات تُظهر درجة اليقين، عناصر حاسمة لتقليل الضرر، خصوصًا في الحالات الحساسة مثل الجرعات الدوائية، والتشخيصات المحتملة، والتداخلات بين الأدوية
توصيات عملية لتقليل مخاطر التضليل الطبي بالذكاء الاصطناعي
تؤكد الدروس المستفادة أن استخدام الذكاء الاصطناعي في الطب يحتاج مسارًا من التحقق متعدد المراحل، يبدأ بتنقية البيانات والتوثيق داخل المستشفيات، ويمتد إلى اختبارات متكررة ضد سيناريوهات أخطاء “ذات صياغة طبية”، مع إلزام المخرجات بإحالات واضحة ومراجعة بشرية، لأن الثقة وحدها لا تكفي في بيئة سريرية








