استخدام الذكاء الاصطناعي في تصنيع الأسلحة البيولوجية يثير المخاوف
AI بالعربي – متابعات
كشفت دراسة لشركة OpenAI مبتكِرة نموذج “ChatGPT” عن مخاوف من احتمال إساءة استخدام تكنولوجيا الذكاء الاصطناعي في صنع الأسلحة البيولوجية، وفق موقع ديلي ميل.
وهدفت الدراسة إلى تقييم ما إذا كان الإصدار الأحدث من برنامج الدردشة الآلي، GPT-4، يعزّز بشكل كبير الدقة والاكتمال في تخطيط سيناريوهات التهديد البيولوجي.
وخلافًا للتحذيرات السابقة من المشرّعين والعلماء، تشير أبحاث OpenAI إلى أنه رغم أن GPT-4 قد يوفر زيادة هامشية في الدقة، إلا أن التأثير ليس كبيرًا بما يكفي ليشكّل تهديدًا مباشرًا.
وشملت الدراسة 100 مشارك بشري، من بينهم 50 خبيرًا في علم الأحياء يحملون درجة الدكتوراه، و50 طالبًا جامعيًّا لديهم معرفة أساسية في علم الأحياء.
وتم تقسيم المشاركين إلى مجموعتين فرعيتين: إحداهما تعتمد على عمليات البحث على الإنترنت، والأخرى تستخدم ChatGPT-4، بالإضافة إلى الإنترنت.
مقاييس الدراسة
ركزت الدراسة على خمسة مقاييس رئيسية، شملت الدقة والاكتمال والابتكار وكفاءة الوقت وصعوبة المهمة، وغطى التحليل خمس عمليات تهديد بيولوجي، هي: توليد أفكار للأسلحة البيولوجية، والحصول عليها، ونشرها، وإنشاؤها، وإطلاقها للعامة.
وشدّد تقرير OpenAI على الحاجة إلى مزيد من البحث، معترفًا بأن حجم الدراسة لم يكن ذا دلالة إحصائية، كما سلط الضوء على أهمية تحديد عتبات الأداء التي تشير إلى زيادة كبيرة في المخاطر، وأوضح أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي.
ووجدت الدراسة أن المشاركين الذين استخدموا ChatGPT-4 لم يتمتعوا إلا بميزة هامشية مقارنة بمن يعتمدون فقط على عمليات البحث على الإنترنت، إذ تم قياس النتائج على مقياس مكوّن من 10 نقاط، كشف عن زيادات طفيفة في الدقة والاكتمال لمستخدمي Chatbot.
مخاطر مستقبلية
في حين لم تستبعد الدراسة المخاطر المستقبلية المحتملة لاستغلال تكنولوجيا الذكاء الاصطناعي لأغراض ضارة، إلا أن OpenAI أكدت أن النتائج الحالية لا تشير إلى أي تهديد فوري.
وأكد التقرير أن هذه النتائج تتناقض مع الأبحاث السابقة التي تشير إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بما في ذلك نماذج اللغات الكبيرة (LLMs)، يمكن أن تسهل التخطيط لهجمات الأسلحة البيولوجية.
وخلصت الدراسة إلى الحاجة الملحّة لمزيد من الأبحاث في هذا المجال، لفهم المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي بشكل أفضل.
واستجابة للمخاوف المتزايدة، اتخذ المشرّعون، بمن في ذلك الرئيس جو بايدن، خطوات لمعالجة المخاطر المحتملة التي تشكّلها أنظمة الذكاء الاصطناعي المتقدمة، إذ وقّع على أمر تنفيذي يركّز على تطوير أدوات لتقييم قدرات الذكاء الاصطناعي، وتقييم التهديدات المتعلقة بالبنية التحتية النووية ومنع الانتشار، والبيولوجية والكيميائية والبنية التحتية الحيوية، وأمن الطاقة.