“OpenAI” تتحرك لحماية البشرية: الذكاء الاصطناعي تحت الرقابة لمنع المخاطر البيولوجية

AI بالعربي – متابعات

في خطوة لافتة نحو تعزيز الأمان الرقمي، كشفت شركة OpenAI عن إطلاق نظام مراقبة جديد يُعنى بمتابعة أحدث نماذجها للذكاء الاصطناعي “O3” و”o4-mini”، وذلك في إطار جهودها لمنع إساءة استخدام هذه التكنولوجيا في التهديدات البيولوجية والكيميائية.

وقالت “OpenAI”، في تقرير السلامة الذي نُشر مؤخرًا، إن النظام الجديد يهدف إلى كشف أي محاولات للحصول على إرشادات قد تُستخدم في تنفيذ هجمات بيولوجية أو كيميائية، وهو ما يمثل تطورًا لافتًا في مجال الحماية الاستباقية.

وأضافت الشركة أن النموذجين الجديدين يُعدّان أكثر تطورًا من الإصدارات السابقة، وهو ما يطرح تحديات ومخاطر إضافية، خصوصاً مع تزايد قدرتهما على الاستجابة لأسئلة شائكة تتعلق بإنتاج مواد بيولوجية خطرة، بحسب تقرير نشره موقع “تك كرانش”.

ولهذا السبب، استحدثت “OpenAI” ما وصفته بـ”نظام المراقبة المنطقي”، والذي يعمل على رصد المحفزات والمضامين المتعلقة بالأسلحة البيولوجية والكيميائية، ويوجّه النماذج لرفض أي استجابة تنتهك السياسات الصارمة للمحتوى.

وبحسب ما أفادت به “OpenAI”، أمضى فريق “القبعة الحمراء” التابع لها نحو ألف ساعة في تحليل وتوثيق المحادثات غير الآمنة، وقد أظهرت النتائج أن النظام الجديد رفض 98.7% من المطالبات المصنّفة على أنها خطيرة.

رغم هذا الإنجاز، أقرت الشركة بأن هناك ثغرات محتملة، خاصةً مع المستخدمين الذين قد يغيّرون أسلوب الطرح للتحايل على آليات الحظر.

لذلك، ما زالت الشركة تعتمد جزئيًا على الرقابة البشرية في مراقبة التفاعلات.

وتؤكد “OpenAI” أن نماذجها لا تزال دون مستوى الخطر العالي، إلا أن القدرات المتنامية لنموذجي O3 وo4-mini في المجالات الحساسة تضعهما تحت الرقابة المستمرة، لا سيما مقارنة بالنماذج السابقة مثل GPT-4 وo1.

وفي إطار تدابيرها الاحترازية، أوضحت الشركة أنها تعتمد آليات مشابهة لضبط محتوى الصور في GPT-4o، وتحديدًا لمنع إنشاء محتوى استغلالي ضار.

لكن وعلى الرغم من هذه الخطوات، يعبّر بعض الباحثين عن مخاوفهم من أن وتيرة السلامة قد لا تواكب تسارع التطوير، خصوصًا مع غياب تقرير السلامة لنموذج GPT-4.1، الذي أطلقته الشركة مؤخرًا، وسط تساؤلات حول مدى جهوزيته.

اترك رد

Your email address will not be published.