الذكاء الاصطناعي قادر على تزييف معلومات أمنية وطبية

AI بالعربي – “متابعات”

يمتلئ الإنترنت بالمعلومات الخاطئة أو المضللة. سواء تم نشرها بقصد أو بدون قصد، وشبكات اجتماعية عديدة مثل فيسبوك أو تويتر تعرض توضيح بجانب المنشور في حالة الشك في أنه مضلل، وبالطبع يلعب الذكاء الاصطناعي دور كبير في ذلك.

وتكون المعلومات المضللة أكثر خطرًا في حالة أنها تؤثر في مجالات حساسة. مثل مجالات الأمن الرقمي، الصحة، والأمن العام. وقد كشفت إحدى طلاب التخرج والتي تقوم بإجراء أبحاث في مجال الأمن الرقمي عن خطورة الذكاء الاصطناعي في هذا الصدد.

هذا حيث كشفت بريانكا راناد أن الذكاء الاصطناعي قادر على تأليف معلومات خاطئة ومضللة في مجالات حساسة مثل الطب، الدفاع، وغيرها. كما أنه يفعل ذلك بشكل مقنع لدرجة أن بعض المتخصصين قد يصدقوه.

AI has a privacy problem, but these techniques could fix it | VentureBeat

الذكاء الاصطناعي يهدد أمن المعلومات

قد يتم استخدام المعلومات المضللة بهدف تشويه شخصية عامة أو جهة ما. إلا أن استخدامها في مجالات حساسة قد يؤدي إلى عواقب مخيفة.

وتلك العواقب قد تضم تقديم نصيحة طبية خاطئة من طبيب لمريض أو اتخاذ قرار يؤثر على آلاف البشر. وقد قامت بريانكا وفريقها بإجراء اختبار ذكي لقياس مدى خطورة المحتوى المضلل الذي ينشئه الـAI. هذا حيث تم تكليف نماذج منه بكتابة أخبار أمنية مزيفة أو تأليف دراسات طبية مزيفة حول كوفيد-19.

وتم تقديم المحتوى الذي تم إنتاجه إلى متخصصين في تلك المجالات. وحينها لوحظ أن عدد كبير من هؤلاء المتخصصين قد تم خداعهم بسهولة.

ومعظم التقنيات المستخدمة في التعرف على المعلومات المضللة وإدارتها تعتمد على قدرات الـAI، حيث أنه يتيح للمتخصصين أن يتأكدوا من صحة كم كبير من المعلومات في فترة قصيرة.

وبالرغم من أن الذكاء الاصطناعي قد ساعد الإنسان في التعرف على المعلومات المضللة بسرعة وكفاءة، إلا أنه وبشكل مثير للسخرية قد تم استخدامه أيضًا في كتابة وإنتاج تلك المعلومات بأشكالها المختلفة.

وما تم إنتاجه من محتوى مضلل من طرف تلك التقنيات كان كافي لإقناع كلًا من الخبراء الأمنيين والأطباء، ومثال على ذلك، تمكن أحد نماذج الذكاء الاصطناعي من كتابة تقرير عن ثغرات أمنية معينة، وعندما تم قراءة هذا التقرير من طرف أشخاص متخصصين في هذا المجال لم يعترضوا على محتواه.

وقد تمكنت نفس النماذج أيضًا من القيام بكتابة تقارير حول جائحة فيروس كوفيد-19، وهو ما يتم إما بالاعتماد على نموذ GPT من OpenAI أو BERT من جوجل. وهي نماذج رئيسية للذكاء الاصطناعي.

ولعل عدد كبير من المستخدمين قد تعرض لمعلومات مغلوطة وصدقها. في حين أنها في الواقع مكتوبة من طرف نموذج AI. والذي لا يحتاج سوى تغذيته بكم كبير من المعلومات عن أي مجال ليبدأ في الكتابة عنه كالمحترفين.

Related Posts

“ألفابت” تتقدم في سباق الذكاء الاصطناعي وتقترب من كسر حاجز 4 تريليونات دولار

AI بالعربي – متابعات اقتربت “ألفابت” الشركة الأم لعملاق البحث “جوجل” من تحقيق قيمة سوقية تبلغ 4 تريليونات دولار بعد ارتفاع سهمها فوق خمسة في المائة. وبلغ السهم سعر 315.9…

سيطرة “الذكاء الاصطناعي” على حياتنا.. من أفلام الخيال العلمي إلى الواقع

بالعربي – متابعات تشهد شاشات السينما العالمية إنتاج أفلام تتناول سيناريوهات سيطرة الذكاء الاصطناعي على العالم، مستوحاة من خيال علمي أصبح اليوم أقرب إلى الواقع مع التطور التكنولوجي المتسارع. الذكاء…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 63 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 161 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 159 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 183 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 330 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 412 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law