دراسة جديدة: الإنسان لن يستطيع التحكم بذكاء اصطناعي خارق

3

AI بالعربي – متابعات

لطالما شكل الذكاء الاصطناعي موضع جدل وقلق حول القدرة التي يمكن أن يصل إليها وإمكانية تغلبه على الانسان. لكن العلماء توصلوا إلى استنتاج شبه نهائي حول قدرتنا على التحكم بكمبيوتر فائق الذكاء. وأتت إجابتهم بكل بساطة: “بالتأكيد لا”.

فقد استخلص مقال علمي نشر في مجلة “journal of artificial intelligence research” أن “الذكاء الخارق يطرح مشكلة مختلفة اختلافًا جوهريًا عن تلك التي تتم دراستها عادةً تحت شعار أخلاقيات الروبوت”.

ورأى المشرفون على الدراسة أنه من أجل التحكم في ذكاء خارق يتجاوز بكثير الإدراك البشري، يجب محاكاة هذا النوع من الذكاء بهدف تحليله. لكن إذا كنا غير قادرين على فهمه، فمن المستحيل وضع مثل هذه المحاكاة.

ولفت المقال إلى أنه لا يمكن وضع قواعد لحماية البشر إذا لم نفهم نوع السيناريوهات التي سيأتي بها الذكاء الاصطناعي الخارق. فبمجرد أن يعمل نظام الكمبيوتر على مستوى أعلى من نطاق المبرمجين، لا يعود بإمكاننا ضبط حدود عمله.

ويوضح المشرفون على الدراسة أن “الذكاء الخارق متعدد الأوجه، وبالتالي قد يصبح قادرًا على استخدام مجموعة متنوعة من الموارد من أجل تحقيق أهداف يحتمل أن تكون غير مفهومة للبشر، ما يصعب التحكم فيها”.

في هذا الإطار، اعتبر عالم الكمبيوتر مانويل سيبريان من معهد ماكس بلانك للتنمية البشرية أن فكرة “الآلة فائقة الذكاء التي تتحكم في العالم تبدو كنوع من الخيال العلمي”. لكنه يضيف: “توجد اليوم كمبيوترات تقوم بمهام معينة بشكل مستقل، من دون أن يفهم المبرمجون بشكل كامل كيف تعلمتها”.

ويستند العلماء في تحليلهم إلى نظرية “مسألة التوقف” المتعلقة ببرامج الكومبيوتر. وهذه المسألة تهتم بمعرفة ما إذا كان برنامج خوارزميات معين سيصل إلى نتيجة ويتوقف عن البحث أو سيتسمر بالبحث إلى ما لا نهاية. لكن العالم البريطاني آلان تورنغ برهن في العام 1936 أنه من المستحيل وضع برنامج خوارزميات عام لكل البرامج لمعرفة ما إذا كانت ستتوقف عن البحث أو لا.

من هنا، يشير العلماء إلى أنه من المستحيل حسابيا ورياضيا معرفة ما إذا كان بالإمكان خلق برنامج لمنع الذكاء الاصطناعي من إلحاق الأذى بالبشر وتدمير العالم.

اترك رد

Your email address will not be published.