استخدام الذكاء الاصطناعي في تصنيع الأسلحة البيولوجية يثير المخاوف

استخدام الذكاء الاصطناعي في تصنيع الأسلحة البيولوجية يثير المخاوف

AI بالعربي – متابعات

كشفت دراسة لشركة OpenAI مبتكِرة نموذج “ChatGPT” عن مخاوف من احتمال إساءة استخدام تكنولوجيا الذكاء الاصطناعي في صنع الأسلحة البيولوجية، وفق موقع ديلي ميل.

وهدفت الدراسة إلى تقييم ما إذا كان الإصدار الأحدث من برنامج الدردشة الآلي، GPT-4، يعزّز بشكل كبير الدقة والاكتمال في تخطيط سيناريوهات التهديد البيولوجي.

وخلافًا للتحذيرات السابقة من المشرّعين والعلماء، تشير أبحاث OpenAI إلى أنه رغم أن GPT-4 قد يوفر زيادة هامشية في الدقة، إلا أن التأثير ليس كبيرًا بما يكفي ليشكّل تهديدًا مباشرًا.

وشملت الدراسة 100 مشارك بشري، من بينهم 50 خبيرًا في علم الأحياء يحملون درجة الدكتوراه، و50 طالبًا جامعيًّا لديهم معرفة أساسية في علم الأحياء.

وتم تقسيم المشاركين إلى مجموعتين فرعيتين: إحداهما تعتمد على عمليات البحث على الإنترنت، والأخرى تستخدم ChatGPT-4، بالإضافة إلى الإنترنت.

مقاييس الدراسة

ركزت الدراسة على خمسة مقاييس رئيسية، شملت الدقة والاكتمال والابتكار وكفاءة الوقت وصعوبة المهمة، وغطى التحليل خمس عمليات تهديد بيولوجي، هي: توليد أفكار للأسلحة البيولوجية، والحصول عليها، ونشرها، وإنشاؤها، وإطلاقها للعامة.

وشدّد تقرير OpenAI على الحاجة إلى مزيد من البحث، معترفًا بأن حجم الدراسة لم يكن ذا دلالة إحصائية، كما سلط الضوء على أهمية تحديد عتبات الأداء التي تشير إلى زيادة كبيرة في المخاطر، وأوضح أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي.

ووجدت الدراسة أن المشاركين الذين استخدموا ChatGPT-4 لم يتمتعوا إلا بميزة هامشية مقارنة بمن يعتمدون فقط على عمليات البحث على الإنترنت، إذ تم قياس النتائج على مقياس مكوّن من 10 نقاط، كشف عن زيادات طفيفة في الدقة والاكتمال لمستخدمي Chatbot.

مخاطر مستقبلية

في حين لم تستبعد الدراسة المخاطر المستقبلية المحتملة لاستغلال تكنولوجيا الذكاء الاصطناعي لأغراض ضارة، إلا أن OpenAI أكدت أن النتائج الحالية لا تشير إلى أي تهديد فوري.

وأكد التقرير أن هذه النتائج تتناقض مع الأبحاث السابقة التي تشير إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بما في ذلك نماذج اللغات الكبيرة (LLMs)، يمكن أن تسهل التخطيط لهجمات الأسلحة البيولوجية.

وخلصت الدراسة إلى الحاجة الملحّة لمزيد من الأبحاث في هذا المجال، لفهم المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي بشكل أفضل.

واستجابة للمخاوف المتزايدة، اتخذ المشرّعون، بمن في ذلك الرئيس جو بايدن، خطوات لمعالجة المخاطر المحتملة التي تشكّلها أنظمة الذكاء الاصطناعي المتقدمة، إذ وقّع على أمر تنفيذي يركّز على تطوير أدوات لتقييم قدرات الذكاء الاصطناعي، وتقييم التهديدات المتعلقة بالبنية التحتية النووية ومنع الانتشار، والبيولوجية والكيميائية والبنية التحتية الحيوية، وأمن الطاقة.

Related Posts

الذكاء الاصطناعي يقترب من كشف الأكاذيب بدقة غير مسبوقة

AI بالعربي – متابعات كشفت دراسة جديدة أن أنظمة الذكاء الاصطناعي أصبحت قادرة على تقييم صدق البشر بدقة مرتفعة. وأجرى فريق من جامعتي ميتشجن وأوكلاهوما الأميركيتين سلسلة تجارب واسعة لقياس…

تقرير: “داعش” يطوّر دعايته باستخدام الذكاء الاصطناعي لاستهداف مجندين في “بريطانيا”

AI بالعربي – متابعات قالت صحيفة “التلغراف” إن تنظيم داعش طوّر أساليبه الدعائية عبر اعتماد أدوات الذكاء الاصطناعي. ويأتي ذلك لاستهداف مجندين محتملين داخل بريطانيا. ويجري استخدام هذه التقنيات لرفع…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 123 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 116 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 142 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 295 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 378 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 388 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”