AI بالعربي – متابعات
حذّر تقرير حديث نشرته صحيفة “الجارديان” من مخاطر متزايدة قد يتعرض لها المستخدمون نتيجة الاعتماد على ملخصات البحث المدعومة بالذكاء الاصطناعي في الحصول على معلومات صحية، مشيرًا إلى أن هذه النتائج قد تكون مضللة وتؤدي إلى أذى صحي مباشر في بعض الحالات.
ملخصات الذكاء الاصطناعي تحت المجهر الصحي
أوضح التقرير أن ملخصات البحث التي تقدمها جوجل، والمعروفة باسم AI Overviews، تعتمد على تقنيات الذكاء الاصطناعي التوليدي لتقديم إجابات سريعة ومختصرة، إلا أن هذه الآلية قد تختزل معلومات طبية معقدة بصورة غير دقيقة.
ورغم تأكيد جوجل أن هذه الملخصات “مفيدة” و”موثوقة”، فإن خبراء الصحة يرون أن اختصار الإرشادات الطبية دون سياق علمي كامل قد يقود إلى استنتاجات خاطئة وخيارات علاجية خطيرة.
نصائح غذائية خاطئة لمرضى سرطان البنكرياس
كشف التقرير عن حالة وصفها مختصون بأنها شديدة الخطورة، حيث أوصت نتائج بحث مدعومة بالذكاء الاصطناعي مرضى سرطان البنكرياس بتجنب الأطعمة الغنية بالدهون، وهو ما يخالف الإرشادات الطبية المعتمدة.
وأكد خبراء أن هذا النوع من النصائح قد يؤدي إلى نقص حاد في السعرات الحرارية، ويُضعف قدرة المريض على تحمّل العلاج الكيميائي أو الجراحة، ما ينعكس سلبًا على فرص النجاة.
تحذير من معلومات مضللة حول وظائف الكبد
في مثال آخر مثير للقلق، أظهرت نتائج البحث معلومات غير دقيقة بشأن اختبارات وظائف الكبد، ما قد يدفع بعض المرضى للاعتقاد بأن حالتهم الصحية طبيعية رغم إصابتهم بأمراض خطيرة.
وقالت باميلا هيلي، الرئيسة التنفيذية لمؤسسة الكبد البريطانية، إن العديد من أمراض الكبد لا تظهر أعراضها إلا في مراحل متأخرة، ما يجعل الاعتماد على تفسيرات غير دقيقة خطرًا مباشرًا على حياة المرضى.
مخاوف من ثقة المستخدمين في نتائج الذكاء الاصطناعي
يأتي هذا التحقيق وسط مخاوف أوسع من ميل المستخدمين إلى افتراض دقة المعلومات التي يقدمها الذكاء الاصطناعي، خاصة عندما تظهر في مقدمة نتائج البحث.
وكانت دراسات سابقة قد كشفت أن بعض أدوات الذكاء الاصطناعي، بما فيها ChatGPT وأنظمة أخرى، قدمت نصائح مالية غير دقيقة، كما أُثيرت مخاوف مماثلة بشأن تلخيص الأخبار.
الذكاء الاصطناعي والصحة النفسية
وجدت صحيفة الجارديان أن ملخصات البحث المدعومة بالذكاء الاصطناعي قدمت نتائج مضللة عند البحث عن حالات الصحة النفسية، مثل الذهان واضطرابات الأكل.
وقال ستيفن باكلي، رئيس قسم المعلومات في مؤسسة “مايند”، إن بعض هذه النتائج احتوت على نصائح خطيرة أو غير صحيحة، وقد تدفع المرضى إلى تأجيل طلب المساعدة الطبية.
تحيزات خفية داخل أنظمة التلخيص
أشار مختصون إلى أن الذكاء الاصطناعي، عند تلخيصه للمحتوى الطبي، قد يعكس تحيزات أو روايات وصمية موجودة أصلًا على الإنترنت، خاصة إذا استند إلى مصادر غير موثوقة أو غير متخصصة.
وأضافوا أن غياب السياق الطبي الكامل قد يجعل هذه الأنظمة تقترح مصادر معلومات غير مناسبة للحالات الصحية الحساسة.
رد جوجل على الانتقادات
أكدت جوجل أن الغالبية العظمى من ملخصات الذكاء الاصطناعي التي تقدمها دقيقة ومفيدة، مشيرة إلى أنها تستثمر بشكل كبير في تحسين جودة المحتوى، خاصة في الموضوعات الصحية.
وقال متحدث باسم الشركة إن معدل دقة هذه الملخصات يضاهي ميزات البحث الأخرى، مثل المقتطفات المميزة، موضحًا أن الشركة تتخذ إجراءات فورية عند اكتشاف أي خلل في تفسير المحتوى أو فقدان للسياق.








