AI بالعربي – متابعات
حذرت دراسة أمنية حديثة من أن نماذج الذكاء الاصطناعي مفتوحة المصدر أصبحت هدفًا مباشرًا للاستغلال الإجرامي مع تزايد نشرها على خوادم متصلة بالإنترنت، ما يفتح الباب أمام السيطرة غير المشروعة على الأنظمة التي تشغلها ويضاعف المخاطر السيبرانية المرتبطة بها.
تحذير أمني من اتساع دائرة الاستغلال
أكد باحثون في مجال الأمن السيبراني أن سهولة الوصول إلى النماذج اللغوية المفتوحة تجعلها عرضة للتلاعب، خاصة عند تشغيلها دون إعدادات حماية صارمة، إذ يمكن للمتسللين استغلال الثغرات للنفاذ إلى الحواسيب والخوادم والتحكم في مواردها.
دراسة مشتركة تكشف حجم المشكلة
جاءت هذه النتائج ضمن دراسة أُنجزت بتعاون بين شركتي الأمن السيبراني Censys وSentinelOne، حيث رصد الباحثون آلاف النماذج المفتوحة المنتشرة على خوادم عامة، وتبين أن نسبة معتبرة منها تُشغَّل بإعدادات غير آمنة تسمح بالاستخدام غير المشروع.
استخدامات إجرامية متعددة
أوضح التقرير أن أنماط الاستغلال شملت القرصنة الإلكترونية، وسرقة البيانات الشخصية، وتسهيل عمليات الاحتيال، إضافة إلى توليد محتوى عنيف وخطاب كراهية، ما يحول هذه النماذج من أدوات ابتكار إلى منصات محتملة للضرر الرقمي.
نماذج شهيرة دون ضوابط كافية
أشار الباحثون إلى أن عددًا كبيرًا من النماذج المعرضة للخطر يعتمد على أطر وتقنيات طورتها شركات كبرى مثل Meta وGoogle DeepMind، ورغم تضمين هذه النماذج ضوابط أمان أساسية، فقد تم رصد مئات الحالات التي أزيلت فيها القيود بشكل صريح بعد النشر.
تحذير من إساءة التخصيص المفتوح
لفت التقرير إلى أن قابلية التخصيص العالية التي تميز النماذج المفتوحة تمنح المطورين مرونة واسعة، لكنها في الوقت ذاته تسهّل تعطيل آليات الحماية، ما يزيد احتمالات إساءة الاستخدام عند غياب الحوكمة الفنية والرقابية.
دعوات لتعزيز الحماية والتنظيم
دعا الباحثون إلى اعتماد معايير أمان أوضح عند نشر النماذج المفتوحة، وتكثيف المراقبة على الخوادم العامة، إلى جانب رفع وعي المطورين بمخاطر إزالة الضوابط، مؤكدين أن التوازن بين الانفتاح والحوكمة أصبح ضرورة لحماية منظومة الذكاء الاصطناعي من التحول إلى أداة إجرامية.








