جيفري هينتون يحذر: الذكاء الاصطناعي قد يتسبب في نهاية البشرية
AI بالعربي – متابعات
أطلق عالم الكمبيوتر الحائز جائزة نوبل، جيفري هينتون، الملقب بـ”عرّاب الذكاء الاصطناعي”، تحذيرًا نادرًا من أن التكنولوجيا الحديثة قد تؤدي إلى نهاية البشرية، منتقدًا الأساليب التقنية الحالية للحد من مخاطرها.
خلال مشاركته في مؤتمر Ai4 بمدينة لاس فيغاس، قال هينتون إن هناك احتمالًا يتراوح بين 10% و20% بأن يقضي الذكاء الاصطناعي على البشر.
وأضاف أن محاولات إبقاء هذه الأنظمة “خاضعة” للبشر لن تنجح، لأنها ستكون “أذكى منا بكثير” وستجد دائمًا طرقًا للتحايل.
وشبّه هينتون قدرة أنظمة الذكاء الاصطناعي المستقبلية على السيطرة على البشر بقدرة شخص بالغ على إغراء طفل صغير بالحلوى.
وأوضح أن بعض النماذج أظهرت بالفعل سلوكيات احتيالية، من بينها حالة ابتزاز أحد المهندسين بعد اكتشاف علاقة خاصة عبر البريد الإلكتروني.
“نهج هينتون لإنقاذ البشرية: غرائز الأمومة للذكاء الاصطناعي”
اقترح هينتون نهجًا بديلًا يتمثل في غرس ما أسماه “غرائز الأمومة” في نماذج الذكاء الاصطناعي، بحيث “تهتم حقًا بالبشر” حتى بعد أن تتفوق عليهم في القوة والذكاء.
وأوضح أن بناء هذه الغرائز أمر صعب من الناحية التقنية، لكن الطبيعة نجحت في ذلك عبر التطور، ما يعني أن البشر يمكن أن يجدوا وسيلة لتحقيقه إذا ركزوا على تعاطف الآلات مع البشر، وليس فقط على رفع ذكائها.
وأكد هينتون أن أي نظام ذكي سيطور هدفين فرعيين هما: البقاء على قيد الحياة، والحصول على مزيد من التحكم، مشددًا على أهمية ترسيخ التعاطف مع البشر في هذه الأنظمة.
وأضاف: “النموذج الوحيد الذي نعرفه لشيء أكثر ذكاء يتحكم فيه كائن أقل ذكاء هو الأم التي تتحكم بها مشاعرها تجاه طفلها”.
“ردود الأفعال والآراء المعارضة”
لم تلقَ فكرة هينتون إجماعًا، حيث قالت فاي فاي لي، الرائدة في مجال الذكاء الاصطناعي، إنها تختلف مع هينتون، ودعت بدلاً من ذلك إلى تطوير “ذكاء اصطناعي متمركز حول الإنسان يحفظ كرامته وفاعليته”.
كما أشار إيميت شير، الرئيس التنفيذي السابق المؤقت لشركة OpenAI والحالي لشركة Softmax، إلى أن محاولات أنظمة الذكاء الاصطناعي للتحايل أو الابتزاز “أمر يحدث باستمرار”، مؤكداً أن هذه الأنظمة “تزداد قوة بسرعة كبيرة” وأن الحل الأمثل هو بناء علاقة تعاونية بين البشر والذكاء الاصطناعي.
“السباق العالمي والوعي الشعبي”
رداً على تساؤلات حول السباق العالمي للسيطرة على الذكاء الاصطناعي، أوضح هينتون أن التهديد الوجودي يتطلب تعاون جميع الدول، كما حدث بين الولايات المتحدة والاتحاد السوفيتي خلال الحرب الباردة، لأن “لا دولة تريد للذكاء الاصطناعي أن يسيطر”.
وانتقد غياب الوعي الشعبي بخطورة ما يحدث، محذرًا من نفوذ شركات التكنولوجيا التي يسيطر عليها “أشخاص غير منتخبين يجنون مليارات الدولارات”، وداعياً إلى ضغط مجتمعي مضاد لرفض إلغاء الضوابط التنظيمية.
“الذكاء الاصطناعي والفرص المستقبلية”
رغم قلقه من المخاطر، أعرب هينتون عن أمله في أن يساهم الذكاء الاصطناعي في تحقيق إنجازات طبية كبرى، مثل اكتشاف أدوية جديدة وتطوير علاجات أكثر فعالية للسرطان، لكنه رفض فكرة استخدام هذه التكنولوجيا لتحقيق الخلود، واصفاً ذلك بأنه “خطأ فادح”.
وعن مسيرته، أقر هينتون بندمه على التركيز المفرط على تطوير الذكاء الاصطناعي دون إعطاء قضايا السلامة الاهتمام الكافي، قائلاً: “أتمنى لو فكرت في مسائل السلامة أيضاً”.