الذكاء الاصطناعي قادر على تزييف معلومات أمنية وطبية

AI بالعربي – “متابعات”

يمتلئ الإنترنت بالمعلومات الخاطئة أو المضللة. سواء تم نشرها بقصد أو بدون قصد، وشبكات اجتماعية عديدة مثل فيسبوك أو تويتر تعرض توضيح بجانب المنشور في حالة الشك في أنه مضلل، وبالطبع يلعب الذكاء الاصطناعي دور كبير في ذلك.

وتكون المعلومات المضللة أكثر خطرًا في حالة أنها تؤثر في مجالات حساسة. مثل مجالات الأمن الرقمي، الصحة، والأمن العام. وقد كشفت إحدى طلاب التخرج والتي تقوم بإجراء أبحاث في مجال الأمن الرقمي عن خطورة الذكاء الاصطناعي في هذا الصدد.

هذا حيث كشفت بريانكا راناد أن الذكاء الاصطناعي قادر على تأليف معلومات خاطئة ومضللة في مجالات حساسة مثل الطب، الدفاع، وغيرها. كما أنه يفعل ذلك بشكل مقنع لدرجة أن بعض المتخصصين قد يصدقوه.

AI has a privacy problem, but these techniques could fix it | VentureBeat

الذكاء الاصطناعي يهدد أمن المعلومات

قد يتم استخدام المعلومات المضللة بهدف تشويه شخصية عامة أو جهة ما. إلا أن استخدامها في مجالات حساسة قد يؤدي إلى عواقب مخيفة.

وتلك العواقب قد تضم تقديم نصيحة طبية خاطئة من طبيب لمريض أو اتخاذ قرار يؤثر على آلاف البشر. وقد قامت بريانكا وفريقها بإجراء اختبار ذكي لقياس مدى خطورة المحتوى المضلل الذي ينشئه الـAI. هذا حيث تم تكليف نماذج منه بكتابة أخبار أمنية مزيفة أو تأليف دراسات طبية مزيفة حول كوفيد-19.

وتم تقديم المحتوى الذي تم إنتاجه إلى متخصصين في تلك المجالات. وحينها لوحظ أن عدد كبير من هؤلاء المتخصصين قد تم خداعهم بسهولة.

ومعظم التقنيات المستخدمة في التعرف على المعلومات المضللة وإدارتها تعتمد على قدرات الـAI، حيث أنه يتيح للمتخصصين أن يتأكدوا من صحة كم كبير من المعلومات في فترة قصيرة.

وبالرغم من أن الذكاء الاصطناعي قد ساعد الإنسان في التعرف على المعلومات المضللة بسرعة وكفاءة، إلا أنه وبشكل مثير للسخرية قد تم استخدامه أيضًا في كتابة وإنتاج تلك المعلومات بأشكالها المختلفة.

وما تم إنتاجه من محتوى مضلل من طرف تلك التقنيات كان كافي لإقناع كلًا من الخبراء الأمنيين والأطباء، ومثال على ذلك، تمكن أحد نماذج الذكاء الاصطناعي من كتابة تقرير عن ثغرات أمنية معينة، وعندما تم قراءة هذا التقرير من طرف أشخاص متخصصين في هذا المجال لم يعترضوا على محتواه.

وقد تمكنت نفس النماذج أيضًا من القيام بكتابة تقارير حول جائحة فيروس كوفيد-19، وهو ما يتم إما بالاعتماد على نموذ GPT من OpenAI أو BERT من جوجل. وهي نماذج رئيسية للذكاء الاصطناعي.

ولعل عدد كبير من المستخدمين قد تعرض لمعلومات مغلوطة وصدقها. في حين أنها في الواقع مكتوبة من طرف نموذج AI. والذي لا يحتاج سوى تغذيته بكم كبير من المعلومات عن أي مجال ليبدأ في الكتابة عنه كالمحترفين.

Related Posts

خبراء التقنية يكشفون عن أهم المهارات المطلوبة في عصر الذكاء الاصطناعي

خبراء التقنية يكشفون عن أهم المهارات المطلوبة في عصر الذكاء الاصطناعي AI بالعربي – متابعات يشهد سوق العمل تحولًا جذريًا مع تزايد اعتماد الشركات على تقنيات الذكاء الاصطناعي، ما يدفع…

“إزالة الضوضاء الحسابية” في البيانات الكبيرة.. هل يمكن تنقية الواقع؟

“إزالة الضوضاء الحسابية” في البيانات الكبيرة.. هل يمكن تنقية الواقع؟ AI بالعربي – خاص في عصر البيانات الهائلة، لم يعد التحدي الأكبر هو جمع المعلومات، بل هو القدرة على فصل…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You Missed

خبراء التقنية يكشفون عن أهم المهارات المطلوبة في عصر الذكاء الاصطناعي

  • من admin
  • يوليو 3, 2025
  • 1 views
خبراء التقنية يكشفون عن أهم المهارات المطلوبة في عصر الذكاء الاصطناعي

“إزالة الضوضاء الحسابية” في البيانات الكبيرة.. هل يمكن تنقية الواقع؟

  • من admin
  • يوليو 3, 2025
  • 2 views
“إزالة الضوضاء الحسابية” في البيانات الكبيرة.. هل يمكن تنقية الواقع؟

دراسة حديثة: روبوتات الذكاء الاصطناعي قد تقدم معلومات صحية خاطئة وخطيرة

  • من admin
  • يوليو 3, 2025
  • 1 views
دراسة حديثة: روبوتات الذكاء الاصطناعي قد تقدم معلومات صحية خاطئة وخطيرة

“التحكم الأخلاقي الذاتي” في الأنظمة المستقلة.. من يحدد الصواب والخطأ؟

  • من admin
  • يوليو 3, 2025
  • 2 views
“التحكم الأخلاقي الذاتي” في الأنظمة المستقلة.. من يحدد الصواب والخطأ؟

“الاسترجاع الديناميكي للذاكرة”.. هل يمكن للنماذج أن تتذكر وتتجاهل بوعي؟

  • من admin
  • يوليو 3, 2025
  • 1 views
“الاسترجاع الديناميكي للذاكرة”.. هل يمكن للنماذج أن تتذكر وتتجاهل بوعي؟

“التحسين التطوري متعدد الأهداف”.. كيف يتوازن الذكاء الاصطناعي مع تعدد المعايير؟

  • من admin
  • يوليو 3, 2025
  • 2 views
“التحسين التطوري متعدد الأهداف”.. كيف يتوازن الذكاء الاصطناعي مع تعدد المعايير؟