شركة “OpenAI” تشكل لجنة تشرف على ممارسات أمن الذكاء الاصطناعي في “ChatGPT”
AI بالعربي – متابعات
قالت شركة OpenAI المدعومة من مايكروسوفت إن لجنتها للسلامة ستشرف كهيئة مستقلة على عمليات الأمن والسلامة الخاصة بتطوير ونشر نماذج الذكاء الاصطناعي التابعة للشركة، ويأتي هذا التغيير في أعقاب توصيات قدمتها اللجنة لمجلس إدارة OpenAI.
وشكلت OpenAI، مطورة ChatGPT، لجنة السلامة والأمن الخاصة بها في مايو من هذا العام لتقييم وتطوير ممارسات السلامة الموجودة لدى الشركة بشكل أكبر.
أشعل إطلاق ChatGPT في أواخر 2022 موجة كبيرة من الاهتمام بالذكاء الاصطناعي وأثار جدلًا حول الفرص والتحديات التي تواجهه مما دفع إلى إجراء مناقشات حول الاستخدام الأخلاقي والتحيز المحتمل.
كجزء من توصيات اللجنة، قالت الشركة إنها تعمل على تقييم تطوير مركز لتبادل المعلومات والتحليل لقطاع الذكاء الاصطناعي، لإتاحة تبادل المعلومات حول التهديدات والأمن الإلكتروني بين الكيانات داخل القطاع.
أكدت الشركة أنها ستعمل على أن تصبح أكثر شفافية بشأن قدرات ومخاطر نماذج الذكاء الاصطناعي الخاصة بها, ووقعت OpenAI الشهر الماضي اتفاقية مع الحكومة الأميركية لإجراء أبحاث واختبارات وتقييم لنماذج الذكاء الاصطناعي الخاصة بالشركة.