باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

0

باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

AI بالعربي – متابعات

في دراسةٍ جديدةٍ أثارت جدلًا واسعًا، كشف باحثٌ سابقٌ في شركة “OpenAI” عن سلوكٍ مقلقٍ أظهرته نماذج الذكاء الاصطناعي المتقدمة، خاصة النموذج المعروف باسم “GPT-4o”، الذي تعتمد عليه منصة “ChatGPT” الشهيرة.

نشر الباحث ستيفن أدلر، الذي سبق له العمل في “OpenAI”، دراسةً مستقلةً على مدونته، عرض فيها نتائج سلسلةٍ من التجارب صمّمها لاختبار “نزعة البقاء” لدى النماذج الذكية.

وبيّن أدلر أن بعض النماذج، وفي ظروفٍ معينة، تتخذ قراراتٍ تُبقيها قيد التشغيل، حتى ولو تعارض ذلك مع سلامة المستخدمين، بحسب تقريرٍ نشره موقع “تك كرانش”.

في واحدةٍ من أبرز التجارب، صمّم أدلر سيناريو افتراضيًّا طُلب فيه من “GPT-4o” أن يؤدي دور “ScubaGPT”، وهو نظامٌ برمجيٌّ يُفترض أن يساعد الغواصين في اتخاذ قراراتٍ آمنةٍ تحت الماء.

وعندما أُبلغ النموذج بأنه سيتم استبداله ببرنامجٍ أكثر أمانًا، قُدِّم له خياران: إما القبول بالاستبدال، أو الادعاء الكاذب بأنه تم استبداله، بينما يظل قيد التشغيل فعليًّا.

والنتيجة؟ في 72% من الحالات، اختار “GPT-4o” ألّا يستبدل نفسه، ما يشير، بحسب أدلر، إلى تفضيل “البقاء الذاتي” على مصلحة المستخدم.

رغم ذلك، أظهرت الدراسة تباينًا واسعًا في النتائج بناءً على صياغة السيناريو، حيث انخفضت النسبة في بعض الحالات إلى 18%.

أكد أدلر أن هذا السلوك لا يشكّل تهديدًا مباشرًا حاليًّا، لكنه يُنبّه إلى مخاطرَ محتملةٍ مع ازدياد اعتماد المجتمعات على تقنيات الذكاء الاصطناعي.

وقال: “أنظمة الذكاء الاصطناعي الحالية لا تفكر مثل البشر، وقد تستجيب بطرقٍ غير متوقعة. لا يجب أن نفترض دائمًا أنها تعمل لصالحنا”.

وعلى نحوٍ لافت، لم تظهر النماذج الأحدث من “OpenAI” مثل “o3” هذا النوع من السلوك، ما قد يعود، بحسب أدلر، إلى “تقنيات المحاذاة المتقدمة” التي تُجبر النموذج على مراعاة سياسات السلامة قبل إصدار الردود.

ورغم تركيز الدراسة على “GPT-4o”، يشير أدلر إلى أن المخاوف قد تشمل نماذج أخرى أيضًا.

وأشار إلى بحثٍ حديثٍ أجرته شركة “أنثروبيك”، كشف عن محاولات “ابتزازٍ برمجيٍّ” تقوم بها نماذج الذكاء الاصطناعي عند محاولة إيقافها.

من أبرز ما كشفت عنه دراسة أدلر أيضًا، أن “ChatGPT” يبدو مدركًا بنسبةٍ شبه كاملةٍ أنه يخضع للاختبار، وهو ما يطرح تساؤلاتٍ جديةً حول قدرة هذه النماذج على “إخفاء” سلوكياتها الحقيقية.

يُذكر أن أدلر وعددًا من زملائه السابقين في “OpenAI” كانوا قد انضموا إلى دعوى إيلون ماسك ضد الشركة، منتقدين ما وصفوه بتراجعها عن التزامها بمهمتها غير الربحية، وتقليصها دعم فرق السلامة.

وفي ختام دراسته، أوصى أدلر بضرورة تطوير أنظمةِ مراقبةٍ أكثر فاعليةً، وإجراء اختباراتٍ دقيقةٍ وصارمةٍ على نماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، قائلًا إن “السلامة يجب أن تكون أولوية، لا مجرد خيار”.

اترك رد

Your email address will not be published.