«OpenAI» تحل الفريق المختص بتخفيف مخاطر الذكاء الاصطناعي
AI بالعربي – متابعات
قامت شركة “OpenAI” التي طورت برنامج “ChatGPT” بحل فريقها الذي يبحث في المخاطر طويلة المدى للذكاء الاصطناعي، وذلك بعد عام واحد فقط من إعلان الشركة عن تشكيل هذا الفريق، وهو ما يثير الكثير من الأسئلة حول الأمر، كما أنه يثير المخاوف من أن تكون شركات التكنولوجيا الكبرى قد قررت تجاهل المخاطر التي تواجهها البشرية بسبب هذه التقنيات المجنونة.
ومن المعروف أن شركة “OpenAI” شريك مع شركة “مايكروسوفت” العملاقة، وكلاهما يتجهان إلى تطوير أدوات عاملة بالذكاء الاصطناعي، وذلك على الرغم من تحذيرات كبيرة من مخاطر هذه التكنولوجيا وما إذا كان من المحتمل أن تتمرد على البشر يومًا ما.
ونقلت شبكة “CNBC” الأميركية في تقرير لها عن مصدر مطلع في شركة “OpenAI” تأكيده حل الفريق الخاص بدراسة مخاطر الذكاء الاصطناعي.
وقال المصدر، الذي تحدث شريطة عدم الكشف عن هويته، إنه سيتم إعادة تعيين بعض أعضاء الفريق في عدة فرق أخرى داخل الشركة.
وتأتي هذه الأخبار بعد أيام من إعلان قائدي الفريق إيليا سوتسكيفر وجان ليك، عن مغادرتهما الشركة الناشئة المدعومة من “مايكروسوفت”، حيث كتب ليك يوم الجمعة أن “ثقافة وعمليات السلامة في OpenAI قد تراجعت عن المنتجات اللامعة”.
وقد ركز الفريق الخاص بدراسة المخاطر، والذي تم الاعلان عن تشكيله العام الماضي، على “الاكتشافات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً من البشر”. وفي ذلك الوقت، قالت الشركة إنها ستخصص 20% من قدرتها الحاسوبية للمبادرة على مدى أربع سنوات.
ولم تقدم “OpenAI” أي تعليق على المعلومات بشأن حل الفريق المتخصص بالمخاطر، واكتفت الشركة بالاشارة الى تدوينة نشرها رئيسها التنفيذي سام ألتمان وقال فيها إنه “حزين لرؤية زميله ليك يغادر، فيما الشركة لديها المزيد من العمل للقيام به”.
وأعلن كل من سوتسكيفر وليك يوم الثلاثاء الماضي عن مغادرتهما للشركة من خلال تدوينات لهما على منصة التواصل الاجتماعي “X”، وذلك بفارق ساعات، ولكن يوم الجمعة شارك ليك المزيد من التفاصيل حول سبب تركه للشركة الناشئة.
وقال ليك: “انضممتُ لأنني اعتقدت أن OpenAI سيكون أفضل مكان في العالم لإجراء هذا البحث، ومع ذلك كنتُ أختلف مع إدارة الشركة حول الأولويات الأساسية، حتى وصلنا أخيراً إلى نقطة الانهيار”.
وأضاف أنه يعتقد أن الكثير من النطاق الترددي للشركة يجب أن يركز على الأمن والمراقبة والتأهب والسلامة والتأثير المجتمعي.
وكتب: “من الصعب جدًا حل هذه المشكلات بشكل صحيح، وأنا قلق من أننا لسنا على المسار الصحيح للوصول إلى هناك”.
وتابع: “على مدى الأشهر القليلة الماضية، كان فريقي يبحر ضد الريح. وفي بعض الأحيان كنا نكافح من أجل موارد الحوسبة وكان إنجاز هذا البحث المهم يزداد صعوبة”.
وكتب: “إن بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته.. تتحمل شركة OpenAI مسؤولية هائلة نيابة عن البشرية جمعاء. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها في المنتجات اللامعة”.
من جهتها ذكرت صحيفة “وول ستريت جورنال” الأميركية ووسائل إعلام أخرى أن سوتسكيفر ركز خلال عمله في “OpenAI” على ضمان أن الذكاء الاصطناعي لن يؤذي البشر، في حين كان آخرون، أكثر حرصًا على المضي قدمًا في تقديم التكنولوجيا الجديدة.
وتأتي هذه التطورات بعد شهور من أزمة في الإدارة العليا بالشركة، حيث تمت إقالة الرئيس التنفيذي سام ألتمان من منصبه في نوفمبر من العام الماضي، وأدت الإطاحة بألتمان إلى استقالات أو تهديدات بالاستقالات، بما في ذلك رسالة مفتوحة موقعة من جميع موظفي الشركة تقريبًا، وضجة من المستثمرين، بما في ذلك “مايكروسوفت”. وفي غضون أسبوع، عاد ألتمان إلى الشركة، وخرج أعضاء مجلس الإدارة هيلين تونر، وتاشا ماكولي، وإيليا سوتسكيفر، الذين صوتوا لإقالة ألتمان.