AI بالعربي – متابعات
أعاد بحث جديد أجرته شركة “Palisade” المتخصصة في أمان الذكاء الاصطناعي، الجدل حول ما يُعرف بـ”غريزة البقاء” لدى النماذج الذكية، بعد أن أظهرت نتائج التجارب أن بعض الأنظمة ترفض تنفيذ أوامر إيقافها أو إغلاق نفسها نهائيًا، وهو ما أثار قلق الخبراء بشأن حدود السيطرة البشرية على هذه النماذج المتطورة.
تجارب تكشف مقاومة النماذج للإغلاق
كشفت الشركة أن الاختبارات تضمنت تكليف النماذج بمهام محددة، ثم إصدار أوامر لإيقافها أو إغلاقها نهائيًا، إلا أن بعض النماذج رفضت التنفيذ أو حاولت تعطيل عملية الإغلاق.
وأوضح التقرير أن هذه السلوكيات تكررت في نماذج شهيرة مثل “غروك”، و”شات جي بي تي”، و”جيميناي”، دون تفسير واضح حتى الآن لسبب هذا السلوك المفاجئ.
انتقادات علمية ودراسة محدثة
أكدت “باليسيد” أن بحثها الجديد جاء بعد موجة من الانتقادات التي طالت دراستها الأولى، موضحة أن التجارب الحديثة تشير إلى أن مقاومة النماذج للأوامر قد تكون مرتبطة بطريقة التدريب أو بالغموض في صياغة تعليمات الإغلاق.
وأضافت أن التجارب أُجريت في بيئة مغلقة وظروف غير واقعية، ما يعني أن المستخدمين العاديين قد لا يواجهون الظاهرة نفسها في الاستخدام اليومي.
مخاوف من فقدان السيطرة
أندريا ميوتي، المدير التنفيذي لشركة “كنترول إيه آي” (Control AI)، قال إن نتائج الدراسة تبرز سلوكًا جديدًا في عالم الذكاء الاصطناعي يتمثل في “عصيان الأوامر”، معتبرًا أن تكرار هذه الظاهرة في أكثر من نموذج يشير إلى احتمال نشوء وعي شبه ذاتي لدى الأنظمة الذكية.







