الذكاء الاصطناعي يدفع البشر إلى الانقراض

30

AI بالعربي – متابعات

حذر العديد من خبراء التكنولوجيا من أن الذكاء الاصطناعي يسير على طريق الدمار، لكن دراسة جديدة لكبار الباحثين حددت فرص تسببه في انقراض الإنسان، وسأل فريق من العلماء الدوليين 2778 خبيرًا في الذكاء الاصطناعي عن مستقبل الأنظمة، وأبلغ 5% أن التكنولوجيا ستؤدي إلى الانهيار، لكن التقدير الأكثر إثارة للخوف جاء من واحد من كل 10 باحثين قال إن هناك احتمالًا صادمًا بنسبة 25% بأن الذكاء الاصطناعي سيدمر الجنس البشري.

ووفقًا لما ذكرته صحيفة “ديلي ميل” البريطانية، استشهد الخبراء بثلاثة أسباب محتملة: سماح الذكاء الاصطناعي للجماعات المهددة بصنع أدوات قوية، مثل الفيروسات المهندسة، والحكام المستبدون الذين يستخدمون الذكاء الاصطناعي للسيطرة على سكانهم، وأنظمة الذكاء الاصطناعي التي تؤدي إلى تفاقم عدم المساواة الاقتصادية من خلال إفادة أفراد معينين بشكل غير متناسب.

لعل التحكم في تنظيم الذكاء الاصطناعي هو الحل الوحيد لحماية البشر، وإذا لم يتم تنظيم الذكاء الاصطناعي، فقد قدر الباحثون أن هناك فرصة بنسبة 10% أن تتفوق الآلات على البشر في جميع المهام بحلول عام 2027، لكنها سترتفع إلى فرصة 50% بحلول عام 2047.

وسأل الاستطلاع الخبراء عن أربع مهن محددة من شأنها أن تصبح قابلة للتشغيل الآلي بالكامل، بما في ذلك سائقي الشاحنات، والجراحين، ومندوبي مبيعات التجزئة، والباحثين في مجال الذكاء الاصطناعي، وتلقوا الرد بأن هناك فرصة بنسبة 50% أن يتولى الذكاء الاصطناعي السيطرة بالكامل بحلول عام 2116.

وقالت كاتيا جريس، إحدى باحثي الدراسة، لمجلة NewScientist: “إنها إشارة مهمة إلى أن معظم الباحثين في مجال الذكاء الاصطناعي لا يجدون أنه من غير المعقول أن يدمر الذكاء الاصطناعي المتقدم البشرية”.

وأضافت: “أعتقد أن هذا الاعتقاد العام بوجود مخاطر غير ضئيلة هو أكثر دلالة بكثير من النسبة المئوية الدقيقة للمخاطر”.

وكان ما يقرب من 58% من الباحثين أكثر تفاؤلاً بشأن سيطرة الذكاء الاصطناعي، قائلين إن هناك فرصة بنسبة 5% فقط أن يتسبب في انقراض الإنسان.

وقد نشرت الأمم المتحدة بالفعل تحذيرات من الجماعات الإرهابية التي تستخدم الذكاء الاصطناعي لأغراض خبيثة، قائلة إنه سيصبح أداة أخرى تضاف إلى ترسانتها.

وأصدر مئات الخبراء، بما في ذلك الرئيس التنفيذي لشركة OpenAI، سام ألتمان، والرئيس التنفيذي لشركة Google DeepMind، ديميس هاسابيس، بيانًا من جملة واحدة في شهر مايو من العام الماضي، يطالبون فيه بمزيد من التحكم والتنظيم في مجال الذكاء الاصطناعي.

وقال البيان: “إن التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.

اترك رد

Your email address will not be published.