مخاوف من مساهمة الذكاء الاصطناعي في تطوير أسلحة إرهابية

مخاوف من مساهمة الذكاء الاصطناعي في تطوير أسلحة إرهابية

AI بالعربي – متابعات

تتطور تقنية الذكاء الاصطناعي بسرعة هائلة، حيث أثرت وغيرت في العديد من جوانب حياتنا الحديثة. لكن بعض الخبراء يخشون من إمكانية استخدام هذه التقنية لأغراض ضارة.

فقد كشفت ورقة حكومية بريطانية، وضعها أكثر من 50 خبيرًا، أنه بحلول عام 2025 يمكن استخدام الذكاء الاصطناعي لارتكاب عمليات احتيال وشن هجمات إلكترونية.

كما بينت أنه بحلول ذلك الوقت سيكون لدى هذه التقنية القدرة على “تعزيز القدرات الإرهابية” في تطوير الأسلحة والتخطيط للهجمات وإنتاج الدعاية، وفق صحيفة The Times.

كذلك شملت مجموعة المخاطر الأكثر فتكًا التي يُمكن أن تنشأ بحلول 2030، “التضليل الجماعي” و”أزمة البطالة” حيث يستولي الذكاء الاصطناعي على وظائف منخفضة المهارات، واستخدام التكنولوجيا لمساعدة الإرهابيين على تطوير أسلحة بيولوجية.

“تهديد وجودي”

وذكرت الورقة الصادرة عن المكتب الحكومي للعلوم، أنه لا توجد أدلة كافية لاستبعاد تهديد الذكاء الاصطناعي للإنسانية. واستنادًا إلى مصادر، بما في ذلك المخابرات البريطانية، قالت الورقة إن العديد من الخبراء يعتقدون أن هذا “خطر ذو احتمالية منخفضة للغاية”.

ومع ذلك، أضافت: “بالنظر إلى عدم اليقين الكبير في التنبؤ بتطورات الذكاء الاصطناعي، إلا أنه لا توجد أدلة كافية لاستبعاد أنه إذا تم ضبط أنظمة الذكاء الاصطناعي ذات القدرة العالية، بشكل غير صحيح أو لم يتم التحكم فيها بشكل كاف، يمكن أن تشكل تهديدًا وجوديًا”.

ولفتت إلى أن الذكاء الاصطناعي يمكنه بالفعل أداء “العديد من المهام المفيدة اقتصاديًا” مثل تلخيص المستندات الطويلة وتحليل البيانات.

“ذكاء اصطناعي فائق”

وأشارت الورقة إلى أنه من المرجح أن تصبح التكنولوجيا أكثر فائدة، ويمكن تنفيذ المهام بشكل أكثر كفاءة من البشر، لكنها لمحت إلى أنها لا تستطيع التنبؤ “بالقدرات الجديدة المحددة” التي سيكتسبها الذكاء الاصطناعي، حيث من المرجح أن تتطور الأساليب كثيرًا.

وبحلول عام 2030، بحسب أحد السيناريوهات، فإنه يمكن لشركات التكنولوجيا تطوير “ذكاء فائق” اصطناعي قادر على إنجاز مهام معقدة وخداع البشر، وهو ما قد يُشكل خطرًا “كارثيًا”.

وحذرت من أن الذكاء الاصطناعي قد “يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير” في حالة إساءة استخدامه – من خلال شن هجمات إلكترونية بشكل مستقل.

Related Posts

الشركات الصينية تتجه للتدريب الخارجي لنماذج الذكاء الاصطناعي لتفادي قيود “إنفيديا”

AI بالعربي – متابعات اتخذت كبرى شركات التكنولوجيا الصينية مسارًا جديدًا للتعامل مع القيود الأميركية المتصاعدة على رقاقات الذكاء الاصطناعي، عبر تدريب نماذجها اللغوية الكبيرة في مراكز بيانات خارج البلاد…

“واتساب” يحظر روبوتات الذكاء الاصطناعي مطلع 2026

AI بالعربي – متابعات اتخذت شركة ميتا خطوة مفصلية ستغيّر شكل سوق الذكاء الاصطناعي داخل تطبيقات المراسلة، بعد إعلانها رسميًا حظر استخدام روبوتات الدردشة العامة التابعة لأطراف ثالثة داخل تطبيق…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 83 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 170 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 170 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 194 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 343 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 421 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law