مخاوف دولية من استخدام تقنيات الذكاء الاصطناعي في تصنيع أسلحة بيولوجية

12

AI بالعربي – متابعات

تستعد إدارة الرئيس الأميركي جو بايدن، لفتح جبهة جديدة في جهودها لحماية الذكاء الاصطناعي المطور في الولايات المتحدة من الصين وروسيا عبر خطط أولية لتأمين أكثر نماذجه تطورًا.

ويخشى باحثون بحسب ما ذكر تقرير لـ”رويترز”، من الحكومة والقطاع الخاص من أن أعداء واشنطن قد يستخدمون هذه النماذج، التي تحلل كميات هائلة من النصوص والصور لتلخيص المعلومات وتوليد المحتوى، في شن هجمات رقمية شديدة أو حتى في تصنيع أسلحة بيولوجية ناجحة، وكان من أبرز التهديدات التي يشكلها الذكاء الاصطناعي:

التزييف العميق

يظهر التزييف العميق على مواقع التواصل الاجتماعي، فيخلط بين الحقيقة والخيال في عالم السياسات الأميركية القائم على الاستقطاب، ويتمثل في مقاطع فيديو تبدو واقعية لكنها غير حقيقية أنشأتها خوارزميات الذكاء الاصطناعي المدربة على مقاطع فيديو كثيرة عبر الإنترنت.

وعلى الرغم من توفر هذه الوسائط المولدة رقميا منذ عدة سنوات، فقد استفحلت قدراتها على مدى العام المنصرم بفعل مجموعة من أدوات “الذكاء الاصطناعي التوليدي” الجديدة مثل أداة “ميد جيرني”. وأكد باحثون في تقرير بمارس إن من الممكن استخدام شركات مثل “أوبن إيه.آي”، و”مايكروسوفت” أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي في توليد صور قد تروّج لمعلومات مضللة ذات صلة بالانتخابات وبالتصويت، وذلك على الرغم من وجود سياسات في كلتا الشركتين لمكافحة إنشاء المحتوى المضلل. كما قد  تستغل بعض حملات التضليل المعلوماتي بكل بساطة قدرة الذكاء الاصطناعي على محاكاة المقالات الإخبارية الحقيقية كوسيلة لنشر المعلومات الزائفة.

وقالت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 إنه في العام الماضي على سبيل المثال روّج موقع إخباري صيني يستخدم منصة ذكاء اصطناعي توليدي ادعاء زائفا كان متداولا في وقت سابق ومفاده أن الولايات المتحدة تدير مختبرًا في كازاخستان لتصنيع أسلحة بيولوجية لتستخدمها في مواجهة الصين.

أسلحة بيولوجية

يتزايد قلق مجتمع المخابرات ومراكز البحوث والسلك الأكاديمي في الولايات المتحدة إزاء مخاطر تشكلها جهات أجنبية عدائية تملك حق الوصول إلى قدرات الذكاء الاصطناعي المتطورة. وأشار باحثون في شركة “غريفون ساينتيفيك”، ومؤسسة “راند” البحثية، إلى أن نماذج الذكاء الاصطناعي المتطورة يمكنها تقديم معلومات من شأنها المساعدة في تصنيع أسلحة بيولوجية.

وبدورها درست “غريفون” كيفية استخدام جهات عدائية النماذج اللغوية الكبيرة في إلحاق الضرر في مجال علوم الحياة، وخلصت إلى أنها “قادرة على تقديم معلومات قد تدعم جهة شريرة في إنشاء سلاح بيولوجي من خلال تقديم معلومات مفيدة ودقيقة وتفصيلية في كل خطوة من خطوات هذا المسار”، وخلصت “غريفون” إلى أن أي نموذج لغوي كبير قد يوفر على سبيل المثال معلومات يصل مستواها إلى ما بعد مرحلة الدكتوراه لحل مشكلات تطرأ خلال العمل على فيروس قادر على نشر وباء.

كما أظهرت مؤسسة “راند” البحثية أن النماذج اللغوية الكبيرة قد تسهم في التخطيط لهجوم بيولوجي وتنفيذه، وخلصت إلى أن أي نموذج لغوي كبير قد يقترح، على سبيل المثال، أساليب لنثر مادة البوتوكس السامة في الهواء.

أسلحة رقمية

أفادت وزارة الأمن الداخلي الأميركية في تقييمها للتهديدات الداخلية لعام 2024 بأن الجهات الرقمية من المرجح أن تستخدم الذكاء الاصطناعي في “تطوير أدوات جديدة لتمكين شن هجمات رقمية أوسع نطاقا وأكثر سرعة وكفاءة ومراوغة” على البنية التحتية الحساسة، بما في ذلك خطوط أنابيب النفط والغاز والسكك الحديدية.

وأوضحت الوزارة أن الصين وجهات معادية أخرى تطور تكنولوجيا ذكاء اصطناعي من شأنها تقويض الدفاعات الرقمية الأميركية، بما في ذلك برامج الذكاء الاصطناعي التوليدي التي تدعم هجمات البرمجيات الخبيثة.

اترك رد

Your email address will not be published.