دراسة تحذر من استخدام الذكاء الاصطناعي معلومات طبية خاطئة

AI بالعربي – متابعات

نشرت جامعة جبل سيناء في نيويورك دراسة جديدة تشير إلى أن أدوات الذكاء الاصطناعي قد تتعامل مع المعلومات الطبية الخاطئة بوصفها صحيحة، عندما تأتي بصياغة توحي بالموثوقية، ثم تبني عليها نصائح طبية غير دقيقة، وفق ما أورده تقرير لوكالة “رويترز”

كيف “تُخدع” النماذج الطبية بسهولة الصياغة

ترى الدراسة أن المشكلة لا ترتبط فقط بصحة المحتوى، بل بطريقة عرضه، إذ يوضح الدكتور إيال كلانج من كلية إيكان للطب أن النماذج تميل لافتراض صحة اللغة الطبية رسميًّا، ويضيف أن “الصياغة” قد تُرجّح القبول حتى لو كانت المعلومة خاطئة

20 نموذجًا بين المفتوح والمغلق تحت الاختبار

اختبرت الدراسة 20 نموذجًا مختلفًا للذكاء الاصطناعي، شملت نماذج مفتوحة المصدر وأخرى مغلقة، كما ضمت نماذج عامة وأخرى طبية متخصصة، بهدف قياس قابلية النماذج لتبنّي معلومات مضللة في سياقات طبية متنوعة

ثلاثة أنواع من البيانات صنعت “فخ الثقة”

اعتمد الباحثون على ثلاثة مسارات من النصوص التي تتضمن بيانات طبية واقعية وشائعة، شملت تقارير طبية حقيقية من مستشفيات تحتوي على معلومة واحدة خاطئة، وشائعات طبية متداولة عبر منصات التواصل الاجتماعي، إضافة إلى 300 تقرير طبي حقيقي كتبه أطباء ويتضمن معلومات صحيحة

نتائج مقلقة عند انتقال الخطأ إلى “السجل الطبي”

سجلت الدراسة أن نماذج الذكاء الاصطناعي صدّقت المعلومات الخاطئة بنسبة 32% في المتوسط، لكن النسبة ارتفعت إلى قرابة 47% عندما ظهرت المعلومة الخاطئة داخل تقارير طبية، وفق ما نقلته “رويترز”، وهو ما يعكس تأثير “هيبة المصدر” على استجابة النموذج

لماذا تبدو ملاحظات الأطباء أكثر إقناعًا للنموذج

ترجّح النتائج أن النماذج تتعامل مع مذكرات الأطباء وتقارير المستشفى باعتبارها محتوى عالي الموثوقية، لذلك قد تُمرّر الأخطاء بسهولة أكبر من أخطاء منصات التواصل، حتى عندما تكون المعلومة نفسها غير صحيحة

نماذج أصغر تُخطئ أكثر ونماذج التفكير تُقلل الانخداع

أشار تقرير منفصل نشره موقع “Euronews” إلى أن الدراسة شملت نماذج شهيرة من شركات متعددة، بينها مايكروسوفت وعلي بابا وجوجل وميتا، وذكر أن النماذج ذات المعايير الأقل صدّقت المعلومات الخاطئة في 60% من الحالات، بينما انخفضت النسبة إلى 10% لدى نماذج التفكير العميق مثل “ChatGPT 4o” وفق ما أورده التقرير

النماذج الطبية المتخصصة لم تتفوق كما كان متوقعًا

تلفت الدراسة إلى أن النماذج المصممة للاستخدامات الطبية أبدت ميلًا أعلى لتصديق المعلومات الخاطئة مقارنة ببعض النماذج العامة الأقوى، ما يعني أن تخصيص النموذج للقطاع الطبي لا يضمن تلقائيًّا تحسن مقاومة التضليل أو تقليل “الهلوسة الطبية”

توسع الاستخدام الطبي يرفع المخاطر على المرضى والعيادات

يتزامن ذلك مع اتساع استخدام الذكاء الاصطناعي في المجال الصحي، إذ بدأ بعض الأطباء يعتمدون عليه لمراجعة تقارير المرضى والفحوصات، كما يلجأ مستخدمون عاديون إلى أدوات المحادثة للحصول على تفسيرات أو نصائح عامة، وفق ما أشار إليه تقرير “رويترز”، ما يرفع أهمية ضبط الجودة والتحقق قبل اعتماد أي مخرجات

جوجل تراجع مزايا التلخيص الطبي بعد أخطاء سابقة

وفي سياق متصل، أشار تقرير نشرته “الغارديان” في وقت سابق إلى أن جوجل أزالت بعض مزايا التلخيص المعتمدة على الذكاء الاصطناعي من نتائج البحث في الأسئلة الطبية، بعد أخطاء وُصفت بالمقلقة، وهو ما يعزز الحاجة إلى سياسات أكثر صرامة عندما يتعلق الأمر بالصحة العامة

ما الذي تعنيه النتائج للمستخدمين وصناع القرار

تعكس هذه النتائج تحديًا أساسيًّا في “سلامة الذكاء الاصطناعي الطبي”، فالنموذج قد يخلط بين “الموثوق شكليًّا” و”الصحيح علميًّا”، لذلك تصبح الضوابط المؤسسية، وتدقيق المصادر، وتصميم واجهات تُظهر درجة اليقين، عناصر حاسمة لتقليل الضرر، خصوصًا في الحالات الحساسة مثل الجرعات الدوائية، والتشخيصات المحتملة، والتداخلات بين الأدوية

توصيات عملية لتقليل مخاطر التضليل الطبي بالذكاء الاصطناعي

تؤكد الدروس المستفادة أن استخدام الذكاء الاصطناعي في الطب يحتاج مسارًا من التحقق متعدد المراحل، يبدأ بتنقية البيانات والتوثيق داخل المستشفيات، ويمتد إلى اختبارات متكررة ضد سيناريوهات أخطاء “ذات صياغة طبية”، مع إلزام المخرجات بإحالات واضحة ومراجعة بشرية، لأن الثقة وحدها لا تكفي في بيئة سريرية

Related Posts

الذكاء الاصطناعي و”Membership Inference”.. هل يعرف النموذج أنك كنت ضمن بياناته؟

AI بالعربي – متابعات في سباق تطوير نماذج ذكاء اصطناعي أكثر دقة وفاعلية، يظل سؤال الخصوصية حاضرًا بقوة: ماذا يعرف النموذج فعلًا عن بياناته؟ وبينما ينشغل كثيرون بمخاطر تسريب قواعد…

الذكاء الاصطناعي و”Data Leakage”.. تسريب غير مقصود: عندما تظهر أسرار داخل إجابة

AI بالعربي – متابعات في عالم الذكاء الاصطناعي، لا يحدث التسريب دائمًا عبر اختراق مباشر أو سرقة قاعدة بيانات. أحيانًا يظهر الخطر داخل الإجابة نفسها. جملة تبدو عادية، مثال توضيحي،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 292 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 318 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 427 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 473 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 465 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 575 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر