“جوجل” تطلق إطار العمل “سايف” لتأمين أنظمة الذكاء الاصطناعي

"جوجل" تطلق إطار العمل "سايف" لتأمين أنظمة الذكاء الاصطناعي

AI بالعربي – متابعات

أعلنت شركة “جوجل” العالمية عن إطلاق “سايف” (SAIF)، الذي يعد إطار عمل مفاهيمي لتأمين أنظمة الذكاء الاصطناعي عبر القطاعين العام والخاص، ويهدف للتأكد من أن الجهات الفاعلة المسؤولة تؤمن التكنولوجيا التي تدعم تطورات الذكاء الاصطناعي، وأن نماذجه تتطور بشكل آمن، وفق ما ذكرت مجلة “سي إس أو” الأمريكية.

وقالت شركة جوجل، المالكة لروبوت الدردشة التوليدي “بارد”، والشركة الأم لمختبر أبحاث الذكاء الاصطناعي “ديب مايند”، إن إطار العمل الجديد هو خطوة مهمة نحو حماية البشرية من مخاطر الذكاء الاصطناعي.

وأوضحت المجلة، في الموضوع الذي ترجمت “اليوم” أبرز ما جاء فيه، أنه تم تصميم “سايف” للمساعدة في التخفيف من المخاطر الخاصة بأنظمة الذكاء الاصطناعي مثل سرقة النماذج، وتخريب بيانات التدريب، والاستعانة بالمدخلات الضارة، واستخراج المعلومات السرية في بيانات التدريب.

واوضحت “جوجل“: “مع اندماج قدرات الذكاء الاصطناعي بشكل متزايد في منتجات عدة في جميع أنحاء العالم، فإن الالتزام بإطار عمل جريء ومسؤول سيكون أكثر أهمية”. يأتي إطلاق الإطار الجديد في الوقت الذي يستمر فيه تقدم الذكاء الاصطناعي التوليدي وتأثيره على الأمن السيبراني، حيث أصبح محور تركيز كل من المنظمات والحكومات.

وتتراوح المخاوف بشأن المخاطر التي يمكن أن تقدمها هذه التقنيات الجديدة من المشكلات المحتملة لمشاركة معلومات حساسة للعمل مع خوارزميات التعلم الذاتي المتقدمة، التي تقع في أيدي الجهات الفاعلة الخبيثة التي تستخدمها لتعزيز الهجمات بشكل كبير.ونُشر مشروع “سيكيورتي بروجيكت” موخرًا أهم 10 نقاط في تطبيقات نماذج اللغة الكبيرة (LLM) التي تعتمد عليها العديد من تطبيقات دردشة الذكاء الاصطناعي، مما يبرز تأثيرها المحتمل، وسهولة الاستغلال والانتشار.

ويعتمد “سايف” من “جوجل” على خبرتها في تطوير نماذج الأمن السيبراني، وتوسيع أسس الأمان للنظام الإيكولوجي للذكاء الاصطناعي، بما في ذلك الاستفادة من حماية البنية التحتية الافتراضية، وتوسيع نطاق الاكتشاف والاستجابة لإدخال الذكاء الاصطناعي في عالم التهديدات الخاص بالمؤسسة من خلال مراقبة مدخلات ومخرجات أنظمة الذكاء الاصطناعي التوليدية للكشف عن الحالات الشاذة واستخدام معلومات التهديد لتوقع الهجمات.

فضلاً عن ذلك يراعي الإطار الجديد أتمتة الدفاعات لمواكبة التهديدات الحالية والجديدة لتحسين نطاق وسرعة جهود الاستجابة للحوادث الأمنية. مع وضع سياق لمخاطر نظام الذكاء الاصطناعي في العمليات التجارية بما في ذلك تقييمات مخاطر الأعمال الشاملة مثل نسب البيانات والتحقق من صحتها ومراقبة السلوك التشغيلي لأنواع معينة من التطبيقات. كما ستقوم “جوجل” بتوسيع برامج مكافآت الأخطاء، وتحفيز البحث حول أمان الذكاء الاصطناعي.

أخيرًا، ستواصل “جوجل” تقديم عروض آمنة للذكاء الاصطناعي مع شركاء مثل “جيت لاب”، ومواصلة تطوير قدرات جديدة لمساعدة العملاء على بناء أنظمة آمنة.

Related Posts

هل يقود الذكاء الفائق إلى نهاية دور الإنسان؟.. تحذيرات عالمية تتزايد

AI بالعربي – متابعات يعود الجدل حول مستقبل الذكاء الاصطناعي إلى الواجهة، بعد توقيع مئات الشخصيات العالمية على خطاب يطالب بحظر تطوير ما يسمى بـ”الذكاء الفائق”. يرى الموقعون أن هذا…

المملكة تعزّز حضورها العالمي في الذكاء الاصطناعي عبر مشاركتها في “GPAI Plenary”

AI بالعربي – متابعات استعرضت المملكة العربية السعودية إنجازاتها الريادية في مجالات البيانات والذكاء الاصطناعي، خلال مشاركتها في الجلسة العامة للشراكة العالمية للذكاء الاصطناعي (GPAI Plenary 4th Meeting)، مؤكدة التزامها…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 108 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 98 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 128 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 282 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 364 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 373 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”