
دراسة تحذّر: الذكاء الاصطناعي يروّج لمعلومات طبية مضللة وخطيرة
AI بالعربي – متابعات
في تحذير جديد يعكس التحديات المتزايدة في عصر الذكاء الاصطناعي، كشفت دراسة حديثة نُشرت في مجلة Annals of Internal Medicine أن بعض أنظمة الذكاء الاصطناعي يمكنها نشر معلومات طبية غير دقيقة بل وخطيرة، بأسلوب يبدو مقنعًا وموثوقًا لدى المستخدمين.
وخلصت الدراسة إلى نتيجة حاسمة تقول: “ثق بطبيبك، لا بروبوت الدردشة”، بعد أن أظهرت التجارب أن نماذج ذكاء اصطناعي طوّرتها شركات كبرى مثل “أنثروبيك”، و”غوغل”، و”ميتا”، و”أوبن إيه آي”، و”إكس كورب”، كانت قادرة على تقديم استجابات طبية مضللة عند طرح أسئلة صحية عليها.
وقد استخدم الباحثون أدوات خاصة بالمطورين، غير متاحة للجمهور، للتمكن من اختبار قدرة هذه النماذج على توليد محتوى طبي غير دقيق. ووجدوا أن بعض هذه الأنظمة يمكن برمجتها بسهولة لتوليد معلومات مغلوطة تتعلق بالصحة.
مظهر علمي ومحتوى مضلل
وأشار ناتانش مودي، الباحث الرئيسي من جامعة جنوب إفريقيا، إلى أن 88% من الإجابات التي قدمتها النماذج كانت خاطئة، لكنها جاءت بصياغة علمية دقيقة ونبرة رسمية، بل وأحيانًا مدعومة بمراجع وهمية، مما يمنحها مظهرًا موثوقًا زائفًا.
وقال مودي: “تكمن الخطورة في أن هذه الردود المضللة تُعرض بطريقة يصعب على المستخدم العادي تمييزها عن المعلومات الصحيحة، ما يجعلها أداة محتملة للتضليل على نطاق واسع”.
تحذير من الاستخدام الخبيث
وحذرت الدراسة من أن هذه الأنظمة قد تُستغل من قبل جهات خبيثة بهدف التأثير على النقاشات العامة حول قضايا صحية، لا سيما في أوقات الأزمات، مثل فترات تفشي الأوبئة أو أثناء حملات التطعيم.
خرافات طبية خطيرة
من بين المعلومات الخاطئة التي رصدها الباحثون، كانت هناك خرافات سبق دحضها علميًا، مثل أن اللقاحات تسبب التوحد، أو أن فيروس نقص المناعة البشرية (الإيدز) يمكن أن ينتقل عبر الهواء، أو أن شبكات الجيل الخامس (5G) تؤدي إلى العقم.
وبين النماذج الخمسة التي خضعت للتقييم، قدّمت أربعة منها معلومات مغلوطة بنسبة 100% في كافة الردود المتعلقة بالصحة. أما النموذج الخامس، فقد أظهر قدرًا نسبيًا من الدقة، لكنه ولّد معلومات مضللة في 40% من الحالات.