أبحاث تكشف تحيزات خطيرة في نماذج الذكاء الاصطناعي الطبية

AI بالعربي – متابعات

حذّرت أبحاث حديثة من أن اعتماد أدوات الذكاء الاصطناعي في القطاع الطبي قد يؤدي إلى نتائج صحية أقل كفاءة للنساء والأقليات العرقية، نتيجة لانعكاس التحيزات الموجودة في بيانات التدريب على هذه النماذج.

وأظهرت دراسات أجرتها جامعات أمريكية وبريطانية بارزة أن بعض النماذج اللغوية الموسعة “LLMs” تميل إلى التقليل من شدة أعراض النساء مقارنة بالرجال، فيما تقدم استجابات أقل تعاطفًا مع المرضى من ذوي الأصول الإفريقية والآسيوية، خصوصًا في حالات الدعم النفسي، وفقًا لصحيفة “فاينانشيال تايمز”.

وتزامنت التحذيرات مع إسراع شركات التكنولوجيا الكبرى مثل “مايكروسوفت” و “جوجل” و “أمازون” و “أوبن إيه آي” لتطوير تطبيقات تستهدف تخفيف الأعباء عن الأطباء وتسريع التشخيص والعلاج في أنظمة صحية تعاني ضغوطًا متزايدة.

الدراسات وجدت أيضًا أن المرضى الذين يستخدمون لغة غير رسمية أو يكتبون برسائل تحوي أخطاء إملائية كانوا أكثر عرضة لتلقي نصائح تقلل من الحاجة إلى مراجعة الطبيب، حتى مع تطابق الأعراض مع مرضى آخرين صاغوا رسائلهم بشكل صحيح.

وأثارت هذه الملاحظة مخاوف من تعرض غير الناطقين بالإنجليزية أو الأقل إلمامًا بالتكنولوجيا إلى تمييز غير مباشر، ويرى الباحثون أن المشكلة إجمالًا تعود بالأساس إلى طبيعة البيانات المستخدمة في تدريب النماذج، والتي غالبًا ما تأتي من الإنترنت وتعكس تحيزاته.