“جوجل” تطلق إطار العمل “سايف” لتأمين أنظمة الذكاء الاصطناعي

27

AI بالعربي – متابعات

أعلنت شركة “جوجل” العالمية عن إطلاق “سايف” (SAIF)، الذي يعد إطار عمل مفاهيمي لتأمين أنظمة الذكاء الاصطناعي عبر القطاعين العام والخاص، ويهدف للتأكد من أن الجهات الفاعلة المسؤولة تؤمن التكنولوجيا التي تدعم تطورات الذكاء الاصطناعي، وأن نماذجه تتطور بشكل آمن، وفق ما ذكرت مجلة “سي إس أو” الأمريكية.

وقالت شركة جوجل، المالكة لروبوت الدردشة التوليدي “بارد”، والشركة الأم لمختبر أبحاث الذكاء الاصطناعي “ديب مايند”، إن إطار العمل الجديد هو خطوة مهمة نحو حماية البشرية من مخاطر الذكاء الاصطناعي.

وأوضحت المجلة، في الموضوع الذي ترجمت “اليوم” أبرز ما جاء فيه، أنه تم تصميم “سايف” للمساعدة في التخفيف من المخاطر الخاصة بأنظمة الذكاء الاصطناعي مثل سرقة النماذج، وتخريب بيانات التدريب، والاستعانة بالمدخلات الضارة، واستخراج المعلومات السرية في بيانات التدريب.

واوضحت “جوجل“: “مع اندماج قدرات الذكاء الاصطناعي بشكل متزايد في منتجات عدة في جميع أنحاء العالم، فإن الالتزام بإطار عمل جريء ومسؤول سيكون أكثر أهمية”. يأتي إطلاق الإطار الجديد في الوقت الذي يستمر فيه تقدم الذكاء الاصطناعي التوليدي وتأثيره على الأمن السيبراني، حيث أصبح محور تركيز كل من المنظمات والحكومات.

وتتراوح المخاوف بشأن المخاطر التي يمكن أن تقدمها هذه التقنيات الجديدة من المشكلات المحتملة لمشاركة معلومات حساسة للعمل مع خوارزميات التعلم الذاتي المتقدمة، التي تقع في أيدي الجهات الفاعلة الخبيثة التي تستخدمها لتعزيز الهجمات بشكل كبير.ونُشر مشروع “سيكيورتي بروجيكت” موخرًا أهم 10 نقاط في تطبيقات نماذج اللغة الكبيرة (LLM) التي تعتمد عليها العديد من تطبيقات دردشة الذكاء الاصطناعي، مما يبرز تأثيرها المحتمل، وسهولة الاستغلال والانتشار.

ويعتمد “سايف” من “جوجل” على خبرتها في تطوير نماذج الأمن السيبراني، وتوسيع أسس الأمان للنظام الإيكولوجي للذكاء الاصطناعي، بما في ذلك الاستفادة من حماية البنية التحتية الافتراضية، وتوسيع نطاق الاكتشاف والاستجابة لإدخال الذكاء الاصطناعي في عالم التهديدات الخاص بالمؤسسة من خلال مراقبة مدخلات ومخرجات أنظمة الذكاء الاصطناعي التوليدية للكشف عن الحالات الشاذة واستخدام معلومات التهديد لتوقع الهجمات.

فضلاً عن ذلك يراعي الإطار الجديد أتمتة الدفاعات لمواكبة التهديدات الحالية والجديدة لتحسين نطاق وسرعة جهود الاستجابة للحوادث الأمنية. مع وضع سياق لمخاطر نظام الذكاء الاصطناعي في العمليات التجارية بما في ذلك تقييمات مخاطر الأعمال الشاملة مثل نسب البيانات والتحقق من صحتها ومراقبة السلوك التشغيلي لأنواع معينة من التطبيقات. كما ستقوم “جوجل” بتوسيع برامج مكافآت الأخطاء، وتحفيز البحث حول أمان الذكاء الاصطناعي.

أخيرًا، ستواصل “جوجل” تقديم عروض آمنة للذكاء الاصطناعي مع شركاء مثل “جيت لاب”، ومواصلة تطوير قدرات جديدة لمساعدة العملاء على بناء أنظمة آمنة.

اترك رد

Your email address will not be published.