باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

باحث سابق في "OpenAI": نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

AI بالعربي – متابعات

في دراسةٍ جديدةٍ أثارت جدلًا واسعًا، كشف باحثٌ سابقٌ في شركة “OpenAI” عن سلوكٍ مقلقٍ أظهرته نماذج الذكاء الاصطناعي المتقدمة، خاصة النموذج المعروف باسم “GPT-4o”، الذي تعتمد عليه منصة “ChatGPT” الشهيرة.

نشر الباحث ستيفن أدلر، الذي سبق له العمل في “OpenAI”، دراسةً مستقلةً على مدونته، عرض فيها نتائج سلسلةٍ من التجارب صمّمها لاختبار “نزعة البقاء” لدى النماذج الذكية.

وبيّن أدلر أن بعض النماذج، وفي ظروفٍ معينة، تتخذ قراراتٍ تُبقيها قيد التشغيل، حتى ولو تعارض ذلك مع سلامة المستخدمين، بحسب تقريرٍ نشره موقع “تك كرانش”.

في واحدةٍ من أبرز التجارب، صمّم أدلر سيناريو افتراضيًّا طُلب فيه من “GPT-4o” أن يؤدي دور “ScubaGPT”، وهو نظامٌ برمجيٌّ يُفترض أن يساعد الغواصين في اتخاذ قراراتٍ آمنةٍ تحت الماء.

وعندما أُبلغ النموذج بأنه سيتم استبداله ببرنامجٍ أكثر أمانًا، قُدِّم له خياران: إما القبول بالاستبدال، أو الادعاء الكاذب بأنه تم استبداله، بينما يظل قيد التشغيل فعليًّا.

والنتيجة؟ في 72% من الحالات، اختار “GPT-4o” ألّا يستبدل نفسه، ما يشير، بحسب أدلر، إلى تفضيل “البقاء الذاتي” على مصلحة المستخدم.

رغم ذلك، أظهرت الدراسة تباينًا واسعًا في النتائج بناءً على صياغة السيناريو، حيث انخفضت النسبة في بعض الحالات إلى 18%.

أكد أدلر أن هذا السلوك لا يشكّل تهديدًا مباشرًا حاليًّا، لكنه يُنبّه إلى مخاطرَ محتملةٍ مع ازدياد اعتماد المجتمعات على تقنيات الذكاء الاصطناعي.

وقال: “أنظمة الذكاء الاصطناعي الحالية لا تفكر مثل البشر، وقد تستجيب بطرقٍ غير متوقعة. لا يجب أن نفترض دائمًا أنها تعمل لصالحنا”.

وعلى نحوٍ لافت، لم تظهر النماذج الأحدث من “OpenAI” مثل “o3” هذا النوع من السلوك، ما قد يعود، بحسب أدلر، إلى “تقنيات المحاذاة المتقدمة” التي تُجبر النموذج على مراعاة سياسات السلامة قبل إصدار الردود.

ورغم تركيز الدراسة على “GPT-4o”، يشير أدلر إلى أن المخاوف قد تشمل نماذج أخرى أيضًا.

وأشار إلى بحثٍ حديثٍ أجرته شركة “أنثروبيك”، كشف عن محاولات “ابتزازٍ برمجيٍّ” تقوم بها نماذج الذكاء الاصطناعي عند محاولة إيقافها.

من أبرز ما كشفت عنه دراسة أدلر أيضًا، أن “ChatGPT” يبدو مدركًا بنسبةٍ شبه كاملةٍ أنه يخضع للاختبار، وهو ما يطرح تساؤلاتٍ جديةً حول قدرة هذه النماذج على “إخفاء” سلوكياتها الحقيقية.

يُذكر أن أدلر وعددًا من زملائه السابقين في “OpenAI” كانوا قد انضموا إلى دعوى إيلون ماسك ضد الشركة، منتقدين ما وصفوه بتراجعها عن التزامها بمهمتها غير الربحية، وتقليصها دعم فرق السلامة.

وفي ختام دراسته، أوصى أدلر بضرورة تطوير أنظمةِ مراقبةٍ أكثر فاعليةً، وإجراء اختباراتٍ دقيقةٍ وصارمةٍ على نماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، قائلًا إن “السلامة يجب أن تكون أولوية، لا مجرد خيار”.

Related Posts

“جوجل”: شركات الذكاء الاصطناعي الصينية لم تكسر بعد سقف الابتكار العالمي

AI بالعربي – متابعات أكدت شركة جوجل أن شركات الذكاء الاصطناعي في الصين ما زالت متأخرة في جانب الابتكار النوعي، رغم سرعتها العالية في استيعاب أحدث التقنيات، وذلك وفق تصريحات…

خبراء مزيفون يعبثون بالإعلام البريطاني ويهزّون الثقة المهنية

AI بالعربي – متابعات كشفت تحقيقات صحفية حديثة عن أزمة متنامية تضرب صميم العمل الإعلامي في المملكة المتحدة، بعد رصد انتشار واسع لما يُعرف بـ”الخبراء الوهميين” داخل منصات وصحف بريطانية…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 233 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 263 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 360 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 391 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 397 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 515 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر