العالم الحقيقي يعطل استخدام الذكاء الاصطناعي في الطب

13

AI بالعربي – متابعات

عندما أجرى باحثو خدمة “جوجل هيلث” دراسة في تايلاند بحثت في فعالية تكنولوجيا التصوير الطبي لشركتهم، لم يكن للنتائج الأكثر إثارة للاهتمام علاقة تذكر بكيفية عمل الخوارزميات.
بدلا من ذلك، اكتشفوا البعد البشري الذي غالبا ما يقوض إمكانات مثل هذه التكنولوجيا – مشكلات العالم الحقيقي التي يمكن أن تعرقل استخدام الذكاء الاصطناعي.
كانت الدراسة المتعلقة باستخدام نظام التعلم العميق للتعرف على أمرض العين التي يسببها مرض السكري، هي أول “دراسة رصدية تركز على الإنسان”، وفقا لـ”جوجل هيلث”. كان لدى فريق البحث سبب وجيه للتفاؤل بشأن فعالية التكنولوجيا الأساسية: عند فحص صور المرضى في بيئة معملية، فوت البرنامج حالات أقل بكثير من المتخصصين (خفض معدل السلبيات الكاذبة 23 في المائة)، على حساب زيادة الإيجابيات الكاذبة 2 في المائة.
لكن في العالم الحقيقي، الأمور انحرفت عن مسارها. في بعض العيادات لم تكن الإضاءة مناسبة، أو كانت سرعة الإنترنت بطيئة جدا لتحميل الصور. لم تستخدم بعض العيادات قطرات العين على المرض، ما أدى إلى تفاقم مشكلات الصور. كانت النتيجة عددا كبيرا من الصور التي لا يمكن للنظام تحليلها.
هذا لا يعني أن التكنولوجيا لا يمكن أن تعود بالفوائد على عدد كبير من السكان الذين يفتقرون إلى الوصول الكافي إلى الرعاية الصحية. يقول إريك توبول، أستاذ الطب الجزيئي في معهد سكريبس للأبحاث، بسبب ندرة الموارد لا يتم فحص نصف مرضى السكري أبدا بحثا عن اعتلال الشبكية السكري، وهو مرض يصيب العين، واصفا التكنولوجيا بأنها “ما زالت جيدة بما يكفي لإحداث فرق”.
الفجوة بين الذكاء التكنولوجي لأنموذج التعلم العميق من “جوجل” وتطبيقه الواقعي تشير إلى مشكلة شائعة أعاقت استخدام الذكاء الاصطناعي في المحيط الطبي.
تقول إيما بيدي، الباحثة الرئيسة في الورقة: “الدقة ليست كافية. في بيئة معملية يمكن للباحثين أن يفوتوا تلك العوامل الاجتماعية البيئية التي تحيط باستخدام النظام”.
لكن الدراسة سلطت الضوء على المدى الذي يمكن أن تعمل فيه التكنولوجيا دون الإمكانات. مع مثل هذه التناقضات في تطبيقه، لا يمكن الاعتماد على الذكاء الاصطناعي لدعم القرارات الحاسمة.
هذه الدراسات لا تعكس المشكلات التي تواجهها الخوارزميات عند تقديمها مع البيانات التي تم جمعها في مواقف فوضوية من العالم الحقيقي. يتمثل أحد القيود في أن معظم الدراسات المستخدمة للتحقق من صحة الاستخدام السريري للذكاء الاصطناعي رجعية، ما يعني أنها تستند إلى مجموعات بيانات تاريخية تم تنقيحها.
على الرغم من الادعاءات الكبيرة التي تقدمها كثير من شركات التكنولوجيا العاملة في مجال التصوير الطبي لمنتجاتها، فإن الأبحاث الطبية شحيحة. وجدت دراسة نشرت في المجلة الطبية البريطانية “بريتش ميدكال جورنال” في وقت سابق من هذا العام أن تجربتين سريريتين عشوائيتين مكتملتين فقط تتضمنان استخدام أنظمة التعلم العميق في التصوير الطبي، مع استمرار ثماني تجارب أخرى.
لكن هذا لم يمنع الشركات التي تقف وراء 81 تجربة أخرى أقل صرامة من ادعاء النجاح: قال ثلاثة أرباعها إن أداء أنظمتها كان على مستوى أداء البشر نفسه أو أفضل منه.
الباحثون يحذرون من أن معظم هذه التجارب “معرضة بدرجة عالية لخطر التحيز، وتنحرف عن معايير التقارير الحالية”. ونتيجة لذلك، فإنها تشكل “خطرا على سلامة المرضى وصحة السكان على المستوى المجتمعي، مع تطبيق خوارزميات الذكاء الاصطناعي في بعض الحالات على ملايين المرضى”.
يقول توبول إن “عمليات التحقق الزائفة” هذه، التي تستخدم لمنح أنظمة الذكاء الاصطناعي الطبية مظهر الموثوقية، غالبا ما تؤدي إلى نتائج غير منتظمة بشكل كبير. “نحن نعلم أن الخوارزميات تختلف اختلافا كبيرا في أدائها من قبل المجتمع الذي تمت دراسته. إذا أجريت اختبارا في مستشفى، فقد لا يعمل في مستشفى آخر”.
أحد التحديات المتكررة يأتي من دمج التكنولوجيا الجديدة مع سير عمل الممارسين الطبيين. تستشهد “جوجل”، مثلا، بأبحاث تظهر أن استخدام التصوير الطبي بالذكاء الاصطناعي في التصوير الشعاعي للثدي يمكن أن يزيد، بدلا من تقليل، عبء العمل على فني الأشعة ولا يرفع بشكل عام مستوى الدقة من عمليات الفحص.
وفقا لبيدي، أظهرت دراسة “جوجل هيلث” في تايلاند أن الأمر يتطلب عملا دقيقا لتكييف التكنولوجيا مع البيئة السريرية. تقول إن تغيير البروتوكولات التي تحكم كيفية استخدام الذكاء الاصطناعي أدى إلى تحسن كبير في النتائج.
مع ذلك، من المرجح أن يكون حل بعض المشكلات التي تعوق تطوير الذكاء الاصطناعي الفعال للتصوير الطبي أكثر صعوبة. كثير من أصعب المشكلات تدور حول جمع واستخدام البيانات اللازمة لتدريب الأنظمة.
قواعد الخصوصية تحد من توافر مجموعات البيانات المفيدة. عادة ما يتم تنقيح البيانات بحيث يمكن استخدامها لتدريب النظام، لكن غالبا هذا لا يكرر الموقف الفوضوي عند استخدام التكنولوجيا لاستخلاص الاستنتاجات في بيئة سريرية.
هناك أيضا مشكلة الثقة. يحذر الباحثون من أن الافتقار إلى الشفافية حول كيفية تطوير الخوارزميات والتحقق من صحتها يمثل عقبة أمام اعتمادها على نطاق أوسع.
دراسة المجلة الطبية البريطانية أحصت “ما لا يقل عن 16” خوارزمية تمت الموافقة عليها للتصوير الطبي من قبل المنظمين الأمريكيين، لكن تم تسجيل تجربة عشوائية واحدة فقط في الولايات المتحدة للنظر في نتائجها.
يقول توبول: “المجتمع الطبي لا يعرف حتى ما هي البيانات التي تعمل عليها الخوارزمية”. ويضيف أنه من دون مزيد من الشفافية ليس من المستغرب أن كثيرا من الممارسين الطبيين – الذين يتسمون بطبيعة متحفظة عندما يتعلق الأمر بتبني تكنولوجيا جديدة – لم يقتنعوا بعد بقيمة الذكاء الاصطناعي.

اترك رد

Your email address will not be published.