باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

باحث سابق في "OpenAI": نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

باحث سابق في “OpenAI”: نماذج الذكاء الاصطناعي أظهرت سلوكًا مقلقًا

AI بالعربي – متابعات

في دراسةٍ جديدةٍ أثارت جدلًا واسعًا، كشف باحثٌ سابقٌ في شركة “OpenAI” عن سلوكٍ مقلقٍ أظهرته نماذج الذكاء الاصطناعي المتقدمة، خاصة النموذج المعروف باسم “GPT-4o”، الذي تعتمد عليه منصة “ChatGPT” الشهيرة.

نشر الباحث ستيفن أدلر، الذي سبق له العمل في “OpenAI”، دراسةً مستقلةً على مدونته، عرض فيها نتائج سلسلةٍ من التجارب صمّمها لاختبار “نزعة البقاء” لدى النماذج الذكية.

وبيّن أدلر أن بعض النماذج، وفي ظروفٍ معينة، تتخذ قراراتٍ تُبقيها قيد التشغيل، حتى ولو تعارض ذلك مع سلامة المستخدمين، بحسب تقريرٍ نشره موقع “تك كرانش”.

في واحدةٍ من أبرز التجارب، صمّم أدلر سيناريو افتراضيًّا طُلب فيه من “GPT-4o” أن يؤدي دور “ScubaGPT”، وهو نظامٌ برمجيٌّ يُفترض أن يساعد الغواصين في اتخاذ قراراتٍ آمنةٍ تحت الماء.

وعندما أُبلغ النموذج بأنه سيتم استبداله ببرنامجٍ أكثر أمانًا، قُدِّم له خياران: إما القبول بالاستبدال، أو الادعاء الكاذب بأنه تم استبداله، بينما يظل قيد التشغيل فعليًّا.

والنتيجة؟ في 72% من الحالات، اختار “GPT-4o” ألّا يستبدل نفسه، ما يشير، بحسب أدلر، إلى تفضيل “البقاء الذاتي” على مصلحة المستخدم.

رغم ذلك، أظهرت الدراسة تباينًا واسعًا في النتائج بناءً على صياغة السيناريو، حيث انخفضت النسبة في بعض الحالات إلى 18%.

أكد أدلر أن هذا السلوك لا يشكّل تهديدًا مباشرًا حاليًّا، لكنه يُنبّه إلى مخاطرَ محتملةٍ مع ازدياد اعتماد المجتمعات على تقنيات الذكاء الاصطناعي.

وقال: “أنظمة الذكاء الاصطناعي الحالية لا تفكر مثل البشر، وقد تستجيب بطرقٍ غير متوقعة. لا يجب أن نفترض دائمًا أنها تعمل لصالحنا”.

وعلى نحوٍ لافت، لم تظهر النماذج الأحدث من “OpenAI” مثل “o3” هذا النوع من السلوك، ما قد يعود، بحسب أدلر، إلى “تقنيات المحاذاة المتقدمة” التي تُجبر النموذج على مراعاة سياسات السلامة قبل إصدار الردود.

ورغم تركيز الدراسة على “GPT-4o”، يشير أدلر إلى أن المخاوف قد تشمل نماذج أخرى أيضًا.

وأشار إلى بحثٍ حديثٍ أجرته شركة “أنثروبيك”، كشف عن محاولات “ابتزازٍ برمجيٍّ” تقوم بها نماذج الذكاء الاصطناعي عند محاولة إيقافها.

من أبرز ما كشفت عنه دراسة أدلر أيضًا، أن “ChatGPT” يبدو مدركًا بنسبةٍ شبه كاملةٍ أنه يخضع للاختبار، وهو ما يطرح تساؤلاتٍ جديةً حول قدرة هذه النماذج على “إخفاء” سلوكياتها الحقيقية.

يُذكر أن أدلر وعددًا من زملائه السابقين في “OpenAI” كانوا قد انضموا إلى دعوى إيلون ماسك ضد الشركة، منتقدين ما وصفوه بتراجعها عن التزامها بمهمتها غير الربحية، وتقليصها دعم فرق السلامة.

وفي ختام دراسته، أوصى أدلر بضرورة تطوير أنظمةِ مراقبةٍ أكثر فاعليةً، وإجراء اختباراتٍ دقيقةٍ وصارمةٍ على نماذج الذكاء الاصطناعي قبل إطلاقها للجمهور، قائلًا إن “السلامة يجب أن تكون أولوية، لا مجرد خيار”.

Related Posts

باحثو جامعة ساري يستلهمون الدماغ البشري لخفض استهلاك الطاقة في الذكاء الاصطناعي

AI بالعربي – متابعات آلية مستوحاة من الدماغ لحل أزمة الطاقةنجح فريق من الباحثين في جامعة ساري البريطانية في تطوير تقنية جديدة قد تغيّر طريقة عمل نماذج الذكاء الاصطناعي جذريًا.…

“الصين” تكشف عن صاروخ أسرع من الصوت قادر على تغيير شكله أثناء الطيران بذكاء اصطناعي

AI بالعربي – متابعات كشفت الصين عن نموذج أولي لصاروخ فائق السرعة يمكنه تغيير شكله أثناء التحليق، في خطوة وصفتها الأوساط البحثية بالإنجاز العلمي الأبرز في مجال الطيران الفرط صوتي.…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 71 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 222 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 312 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 324 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 271 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 309 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟