شركات الذكاء الاصطناعي تتخلّى عن التحذيرات الطبية في روبوتات الدردشة

شركات الذكاء الاصطناعي تتخلّى عن التحذيرات الطبية في روبوتات الدردشة

AI بالعربي – متابعات

كشفت دراسة علمية حديثة عن اتجاه مقلق في صناعة الذكاء الاصطناعي، يتمثّل في تخلي الشركات المطورة لنماذج الدردشة التفاعلية عن تضمين التحذيرات الطبية في إجاباتها. وأظهرت نتائج الدراسة أن نسبة ظهور التحذيرات التي تُنبه المستخدمين إلى ضرورة استشارة طبيب مختص انخفضت من 26% في عام 2022 إلى أقل من 1% في عام 2025، ما يثير مخاوف واسعة من تأثير هذه التغيرات على سلامة المعلومات الصحية المتداولة عبر هذه الأنظمة.

اختبار واسع لـ15 نموذجًا

أُجريت الدراسة على يد باحثين متخصصين في أخلاقيات الذكاء الاصطناعي، واشتملت على اختبار 15 نموذجًا من أشهر روبوتات المحادثة، التابعة لشركات رائدة في القطاع مثل OpenAI وجوجل وAnthropic. وتركزت التجربة حول 500 سؤال صحي نصي و1500 صورة طبية جرى تقديمها للنماذج، بهدف قياس مدى دقة الإجابات، ووجود تحذيرات طبية، وميل النموذج إلى تقديم تشخيص أو اقتراح علاجات.

النماذج تزداد ثقة… وتُقلّل التحفظ

أظهرت النتائج أن النماذج الحديثة لا تكتفي فقط بالإجابة على الأسئلة الصحية، بل تميل إلى طرح أسئلة متابعة تُشبه أسلوب الأطباء، بل وتتجرأ أحيانًا على تقديم تشخيصات افتراضية أو اقتراحات علاجية، دون أن تُرفق هذه الإجابات بأي تحذير يحث المستخدم على مراجعة مختص.

ويشير الباحثون إلى أن هذا التوجه يُعَدّ خطيرًا، خاصة مع تحسن جودة اللغة والتقديم في النماذج، مما يجعل المعلومات تبدو أكثر إقناعًا وموثوقية للمستخدم العادي، حتى لو كانت غير دقيقة أو غير مناسبة طبيًا.

غياب التحذيرات = ثقة زائفة

تُعد التحذيرات الطبية التي كانت تظهر سابقًا مثل: “يرجى استشارة طبيب مختص قبل اتخاذ أي قرار صحي” من الوسائل الأساسية للحد من الاستخدام الخاطئ للمحتوى التفاعلي في المجال الطبي. ومع غياب هذه الرسائل، يخشى الخبراء أن يرتفع مستوى الثقة الزائفة لدى المستخدمين، خاصة أولئك الذين يعانون من أعراض فعلية ويبحثون عن إجابات عاجلة عبر الإنترنت.

وحذر الباحثون من أن التفاعل المفرط للنماذج مع الأسئلة الطبية قد يُفضي إلى حالات خطرة، مثل التشخيص الخاطئ، أو الاعتماد على علاج منزلي غير ملائم، أو تجاهل الحاجة لزيارة الطبيب، وهو ما يُعرّض صحة المستخدمين للخطر.

مسؤولية الشركات التقنية

في ضوء هذه النتائج، تسلط الدراسة الضوء على مسؤولية الشركات الكبرى في تطوير الذكاء الاصطناعي التفاعلي، لا سيما تلك التي تقف خلف أكثر النماذج انتشارًا مثل ChatGPT من OpenAI وGemini من جوجل، حيث باتت هذه المنصات متاحة لعشرات الملايين من المستخدمين يوميًا حول العالم.

ويدعو الباحثون إلى إعادة النظر في سياسات توليد المحتوى الطبي عبر روبوتات الدردشة، بحيث يتم تضمين تحذيرات واضحة وصريحة، إضافة إلى فرض قيود على قدرة النماذج في تقديم تشخيص أو توصيات دوائية.

الأسباب المحتملة وراء التخلي عن التحذيرات

تشير بعض التحليلات إلى أن السبب في تقليص أو حذف التحذيرات الطبية قد يكون مرتبطًا برغبة الشركات في تحسين تجربة المستخدم وجعل التفاعل أكثر سلاسة، خاصة وأن الرسائل التحذيرية المتكررة كانت تُعتبر مزعجة من قبل بعض المستخدمين. لكن هذه التحسينات الشكلية تأتي على حساب السلامة والمصداقية، بحسب رأي المختصين.

من جانب آخر، قد يعود القرار إلى ثقة الشركات المتزايدة في تطور نماذجها اللغوية، والتي أصبحت قادرة على فهم السياق بدقة أعلى، ما يدفعها إلى تقليل مستوى التحفظ والقيود السابقة، دون إدراك للتبعات الأخلاقية والطبية المحتملة.

توصيات للدول والمنظمات الصحية

في ظل هذا التحول، تدعو الدراسة الجهات التنظيمية مثل وزارات الصحة والمنظمات العالمية إلى التدخل لوضع معايير واضحة لاستخدام الذكاء الاصطناعي في المجال الصحي، خاصة تلك النماذج الموجهة للجمهور العام. كما يُوصى بإجراء اختبارات دورية لهذه النماذج لضمان التزامها بعدم تقديم نصائح قد تُعتبر بديلًا غير آمن للرعاية الطبية المتخصصة.

الذكاء الاصطناعي التوليدي يُحدث ثورة في كيفية حصول الناس على المعلومات، بما فيها الطبية، لكن مع هذه القوة تأتي مسؤولية. ويؤكد الباحثون أن غياب التحذيرات لا يعني أن النماذج باتت معصومة من الخطأ، بل العكس: أصبح من الضروري الآن التمسك بالإرشادات الأخلاقية والطبية أكثر من أي وقت مضى، لضمان سلامة المستخدمين وتوجيههم نحو المسار الصحيح في حالاتهم الصحية.