هل يصبح ChatGPT طبيب المستقبل؟

27

AI بالعربي – متابعات

تعاون الدكتور إسحاق كوهين، الطبيب وعالم الكمبيوتر في جامعة هارفارد، مع اثنين من زملائه لاختبار محرك شات جي بي تي-4، بهدف رئيسي واحد وهو معرفة كيفية أداء أحدث نموذج ذكاء اصطناعي أنتجته شركة أوبن إيه آي في بيئة طبية.

يقول كوهين في كتابه “ثورة الذكاء الاصطناعي في الطب” الذي شارك في تأليفه الصحفية المستقلة كاري غولدبرغ، ونائب رئيس الأبحاث في شركة مايكروسوفت بيتر لي؛ إن ChatGPT 4، الذي تم إصداره في مارس 2023 للمشتركين الذين يدفعون رسومًا، قادر على الإجابة عن أسئلة امتحان الترخيص الطبي في الولايات المتحدة بشكل صحيح أكثر من 90 % من الوقت.

والمثير في الأمر؛ أن شات جي بي تي-4 ليس مجرد محرك بحث جيد ومكتشف للحقائق؛ بل هو مترجم رائع أيضًا؛ فهو قادر على ترجمة معلومات التفريغ لمريض يتحدث البرتغالية، وتبسيط المصطلحات التقنية غير التقليدية إلى تقرير يمكن لطلاب الصف السادس قراءته بسهولة.

– أوضح المؤلفون بأمثلة حية، كيف يمكن ChatGPT أن يقدم للأطباء اقتراحات مفيدة حول المعالجة السريرية، ونصائح حول كيفية التحدث إلى المرضى حول حالاتهم المرضية بلغة رحيمة وواضحة، ويمكنه قراءة التقارير أو الدراسات المطولة وتلخيصها في طرفة عين.

– وعندما سأل مؤلفو الكتاب ChatGPT عن كيفية قيامه بكل هذا، أجاب أن كل ذكائه لا يزال “مقصورًا على أنماط في البيانات ولا يتضمن فهمًا حقيقيًا أو قصدًا”. حتى مع وجود مثل هذه القيود، كما اكتشف كوهين في الكتاب، يمكن لـ شات جي بي تي-4 محاكاة كيفية تشخيص الأطباء للحالات بنجاح مذهل – وإن كان غير كامل.

– أجرى كوهين تجربة إكلينيكية باستخدام 4 ChatGPT في الكتاب، بناءً على حالة من الحياة الواقعية تضمنت طفلًا حديث الولادة عالجه قبل بضع سنوات.

– بإعطاء الروبوت بعض التفاصيل الأساسية حول الطفل التي جمعها من الفحص البدني، بالإضافة إلى بعض المعلومات من مستويات الموجات فوق الصوتية والهرمونات، كان الجهاز قادرًا على تشخيص حالة واحدة من كل 100 ألف حالة تسمى تضخم الغدة الكظرية الخلقي بشكل صحيح تمامًا كما فعل الكاتب بعد كل سنوات الدراسة والخبرة، الأمر الذي أثار دهشة وذعر الطبيب.

– علق الطبيب على التجربة بقوله إنه شعر بالقلق بعدما أدرك أن ملايين العائلات ستحصل قريبًا على هذه الخبرة الطبية الرائعة، ولا يدري كيف يمكننا ضمان أن نصيحة ChatGPT ستكون آمنة أو فعالة.

 ChatGPT لا يقدم نتائج صحيحة على الدوام؛ وليس له بوصلة أخلاقية

– بطبيعة الحال لا يمكن الاعتماد علىChatGPT 4 دائمًا، والكتاب حافل بأمثلة على أخطائه. وهي تتراوح من الأخطاء الكتابية البسيطة، مثل الخطأ في تقدير مؤشر كتلة الجسم، إلى الأخطاء الحسابية مثل إغفال تربيع مصطلح في المعادلة.

– غالبًا ما تكون الأخطاء خفية، ويميل النظام إلى التأكيد على صحته، حتى عند الاعتراض عليه. ليس من المبالغة أن نتخيل كيف يمكن أن يؤدي الرقم الخاطئ أو الوزن الخاطئ إلى أخطاء جسيمة في الوصفات الطبية أو التشخيص.

– عندما سأل مؤلفو الكتاب ChatGPT 4 عن هذا الموضوع أجاب بأنه لا ينوي خداع أو تضليل أي شخص، لكنه أحيانًا يرتكب أخطاء أو افتراضات بناءً على بيانات غير كاملة أو غير دقيقة.

– أخيرًا؛ من الواضح أن ChatGPT 4 لديه القدرة على توفير الوقت الثمين والموارد في العيادة، مما يسمح للأطباء بأن يكونوا أكثر حضوراً مع مرضاهم، كما كتب المؤلفون.

– لكنهم يقولون إنه علينا أن نجبر أنفسنا على تخيل عالم به آلات أكثر ذكاءً، وربما يتجاوز الذكاء البشري في كل بُعد تقريبًا. ثم نفكر مليًا ونضع تصورًا للكيفية التي نريد أن يعمل بها هذا العالم.

المصدر: أرقام

اترك رد

Your email address will not be published.