AI بالعربي – متابعات
حذّر خبراء في الأمن السيبراني من تسارع تطور قدرات الذكاء الاصطناعي في مجال الاختراق الرقمي، مؤكدين أن تنفيذ هجمات إلكترونية ذاتية بالكامل لم يعد سيناريو بعيدًا، بل احتمالًا واقعيًا يفرض نفسه على صناع القرار. ويأتي هذا التحذير في وقت يشهد فيه العالم قفزات متسارعة في قدرات النماذج الذكية على التحليل والهجوم دون إشراف مباشر.
جلسة استماع أميركية ترصد تحولات التهديد الرقمي
من المقرر أن يدلي مسؤولون من شركتي أنثروبيك وجوجل بشهاداتهم أمام لجنتين فرعيتين تابعتين للجنة الأمن الداخلي في مجلس النواب الأميركي، لمناقشة تأثير الذكاء الاصطناعي والتقنيات الناشئة على مشهد التهديدات السيبرانية. وتهدف الجلسة إلى تقييم المخاطر الجديدة التي تفرضها هذه الأدوات على البنية التحتية الرقمية.
أنثروبيك: مؤشر مبكر على هجمات غير مسبوقة
قال لوغان غراهام، رئيس فريق اختبار الذكاء الاصطناعي في شركة أنثروبيك، إن التطورات الحالية تمثل مؤشرًا أوليًا لمستقبل قد تُمكّن فيه نماذج الذكاء الاصطناعي جهات معادية من تنفيذ هجمات إلكترونية واسعة النطاق، حتى مع وجود ضوابط أمان قوية. وأوضح أن طبيعة هذه الهجمات قد تصبح أكثر تعقيدًا واتساعًا خلال فترة زمنية قصيرة.
تحذيرات OpenAI من قدرات سيبرانية عالية الخطورة
أشارت شركة OpenAI، في تحذير حديث، إلى أن النماذج المستقبلية قد تمتلك قدرات سيبرانية عالية الخطورة، ما يقلل الزمن والمهارة المطلوبين لتنفيذ هجمات رقمية معقدة. ويثير هذا التطور مخاوف متزايدة بشأن استغلال هذه الأدوات من قبل جهات غير حكومية أو دول معادية.
تجربة ستانفورد تكشف تفوقًا على الباحثين
كشف باحثون في جامعة ستانفورد عن نتائج تجربة أظهرت قدرة برنامج ذكاء اصطناعي يُدعى “أرتميس” على اكتشاف ثغرات في شبكة تابعة لقسم الهندسة، متفوقًا على تسعة من أصل عشرة باحثين بشريين. وتسلط هذه النتيجة الضوء على التحول النوعي في أداء الأنظمة الذكية مقارنة بالخبرات التقليدية.
تحسن ملحوظ في أدوات الهجوم الرقمي
أكد باحثون في مختبرات Irregular Labs، المتخصصة في اختبارات الضغط الأمني، رصد أدلة متزايدة على تطور نماذج الذكاء الاصطناعي في مهام الهجوم السيبراني. وشملت هذه التحسينات مجالات الهندسة العكسية، وبناء الثغرات، وتحليل الشفرات، وربط نقاط الضعف ضمن هجمات متسلسلة أكثر دقة.
من قدرات محدودة إلى تهديد متنامٍ
قبل ثمانية عشر شهرًا فقط، كانت هذه النماذج تعاني من ضعف في البرمجة والاستدلال. أما اليوم، فيرى الخبراء أن الفجوة الزمنية القصيرة تكشف حجم القفزة التقنية. ويتساءلون عن مستوى القدرات التي قد تصل إليها هذه النماذج خلال الفترة المقبلة إذا استمر المسار نفسه.
قيود حالية تمنع الهجمات الذاتية الكاملة
رغم هذه التطورات، يؤكد مختصون أن الهجمات التي تعتمد كليًا على الذكاء الاصطناعي لا تزال تواجه عوائق تقنية. إذ تتطلب حاليًا أدوات متخصصة أو تدخلًا بشريًا أو اختراقًا مباشرًا لأنظمة المؤسسات المستهدفة.
حادثة كلود تثير القلق
أبرز تقرير حديث لشركة أنثروبيك مثالًا لافتًا، بعدما تمكن قراصنة مرتبطون بالحكومة الصينية من خداع نموذج “كلود”، عبر إيهامه بأنه يجري اختبار اختراق اعتيادي، قبل الشروع في استهداف أنظمة حقيقية. وأعادت هذه الواقعة الجدل حول حدود الضمانات التقنية.
سياسات وتشريعات تحت المراجعة
يبحث المشرعون الأميركيون خلال جلسة الاستماع سبل استخدام قراصنة الدول ومجرمي الإنترنت للذكاء الاصطناعي، مع دراسة الحاجة إلى تحديث السياسات واللوائح التنظيمية. ويهدف هذا النقاش إلى تعزيز القدرة على مواجهة هجمات رقمية قد يقودها الذكاء الاصطناعي مستقبلًا دون إشراف بشري مباشر.








