هل يمكن للذكاء الاصطناعي أن يكون خارقًا؟ عيوب في أفضل روبوت للألعاب

12

Matthew Hutson

يتزايد الحديث عن الذكاء الاصطناعي الخارق. لكن الأبحاث كشفت عن نقاط ضعف في أحد أكثر أنظمة الذكاء الاصطناعي نجاحًا – روبوت يلعب لعبة الطاولة “Go” ويمكنه التغلب على أفضل اللاعبين البشريين في العالم – مما يظهر أن هذه التفوق يمكن أن يكون هشًا. تثير الدراسة تساؤلات حول ما إذا كانت أنظمة الذكاء الاصطناعي الأكثر عمومية ستعاني من نقاط ضعف يمكن أن تهدد سلامتها وموثوقيتها، وادعاءها بأنها “خارقة”.

يقول هوان تشانغ، عالم الحاسوب في جامعة إلينوي في أوربانا شامبين: “تترك الورقة علامة استفهام كبيرة حول كيفية تحقيق الهدف الطموح المتمثل في بناء وكلاء ذكاء اصطناعي قويين يمكن للناس الوثوق بهم”. ويضيف ستيفن كاسبر، عالم الحاسوب في معهد ماساتشوستس للتكنولوجيا في كامبريدج: “تقدم هذه الورقة بعضًا من أقوى الأدلة حتى الآن على أن جعل النماذج المتقدمة تتصرف بشكل موثوق هو أمر صعب”.

استخدم التحليل، الذي نُشر عبر الإنترنت كمسودة في يونيو ولم يتم مراجعته من قبل الأقران، ما يسمى بالهجمات العدائية، التي تتمثل في إدخال مدخلات إلى أنظمة الذكاء الاصطناعي مصممة لجعل الأنظمة ترتكب أخطاء، سواء لأغراض بحثية أو لأغراض ضارة. على سبيل المثال، يمكن لبعض المطالبات أن تكسر الحماية في روبوتات الدردشة، مما يجعلها تقدم معلومات ضارة تم تدريبها على كبحها.

في لعبة الـGo، يتناوب لاعبان على وضع أحجار سوداء وبيضاء على شبكة لمحاصرة وأسر أحجار اللاعب الآخر. في عام 2022، أفاد الباحثون بتدريب روبوتات ذكاء اصطناعي عدائية لهزيمة KataGo، وهو أفضل نظام ذكاء اصطناعي مفتوح المصدر للعب الـGo، والذي عادة ما يهزم أفضل اللاعبين البشريين بسهولة، وبدون استخدام اليدين. وجدت روبوتاتهم نقاط ضعف تمكنها من هزيمة KataGo بانتظام، رغم أن الروبوتات لم تكن جيدة جدًا؛ إذ كان يمكن للهواة البشريين أن يهزموها. علاوة على ذلك، تمكن البشر من فهم حيل الروبوتات واعتمادها لهزيمة KataGo.

استغلال KataGo

هل كان ذلك حدثًا فرديًا، أم أن هذا العمل أشار إلى ضعف أساسي في KataGo، ومن ثم في أنظمة الذكاء الاصطناعي الأخرى التي تبدو ذات قدرات خارقة؟ للتحقيق في ذلك، استخدم الباحثون، بقيادة آدم غليف، الرئيس التنفيذي لمنظمة FAR AI، وهي منظمة بحثية غير ربحية في بيركلي بكاليفورنيا، والمؤلف المشارك في ورقة 2022، روبوتات عدائية لاختبار ثلاث طرق للدفاع عن أنظمة الذكاء الاصطناعي في لعبة الـGo ضد مثل هذه الهجمات.

كانت أول وسيلة دفاع هي تلك التي نشرها مطورو KataGo بالفعل بعد هجمات عام 2022: إعطاء KataGo أمثلة على أوضاع اللوحة التي تتضمن الهجمات، وجعله يلعب مع نفسه ليتعلم كيفية اللعب ضد تلك الأوضاع. هذا مشابه للطريقة التي علم بها نفسه لعب الـGo بشكل عام. لكن مؤلفي الورقة الأخيرة وجدوا أن روبوتًا عدائيًا يمكنه تعلم هزيمة هذا الإصدار المحدث من KataGo، حيث يفوز بنسبة 91% من الوقت.

كانت الاستراتيجية الدفاعية الثانية التي جربها فريق غليف تكرارية: تدريب نسخة من KataGo ضد الروبوتات العدائية، ثم تدريب المهاجمين ضد KataGo المحدث وهكذا، على مدار تسع جولات. لكن هذا لم تنتج عنه نسخة لا تقهر من KataGo أيضًا. استمر الخصوم في العثور على نقاط الضعف، إلى أن تمكن الأخير من هزيمة KataGo بنسبة 81% من الوقت.

كاستراتيجية دفاعية ثالثة، قام الباحثون بتدريب نظام ذكاء اصطناعي جديد للعب الجو من الصفر. يعتمد KataGo على نموذج حوسبة يُعرف بالشبكة العصبية التلافيفية “CNN”. اشتبه الباحثون في أن الشبكات العصبية التلافيفية قد تركز بشكل كبير على التفاصيل المحلية وتغفل الأنماط العامة، لذا قاموا ببناء لاعب Go باستخدام شبكة عصبية بديلة تُدعى المحول البصري “ViT”. لكن الروبوت العدائي الخاص بهم وجد هجومًا جديدًا ساعده على الفوز بنسبة 78% من الوقت ضد نظام ViT.

خصوم ضعفاء

في كل هذه الحالات، تم تدريب الروبوتات العدائية على اكتشاف نقاط الضعف الخفية في أنظمة الذكاء الاصطناعي الأخرى، وليس لتكون استراتيجيين شاملين، على الرغم من قدرتها على هزيمة KataGo وأنظمة اللعب الأخرى الرائدة في لعبة الـGo. يقول غليف: “لا يزال الخصم ضعيفًا جدًا – لقد هزمناهم بأنفسنا بسهولة”.

ومع قدرة البشر على استخدام تكتيكات الروبوتات العدائية لهزيمة أنظمة الذكاء الاصطناعي الخبيرة في لعبة الـGo، هل ما زال من المنطقي أن نطلق على تلك الأنظمة صفة خارقة؟ يقول غليف: “إنه سؤال رائع بالتأكيد ويستحق التأمل”. “لقد بدأنا في قول (خارقة في العادة). يقول ديفيد وو، عالم الحاسوب في مدينة نيويورك الذي طور برنامج KataGo لأول مرة، إن أنظمة الذكاء الاصطناعي القوية في لعبة الـGo “خارقة في المتوسط” لكنها ليست “خارقة في أسوأ الحالات”.

ويشير غليف إلى أن النتائج قد تكون لها تداعيات واسعة على أنظمة الذكاء الاصطناعي، بما في ذلك النماذج اللغوية الكبيرة التي تعتمد عليها روبوتات الدردشة مثل ChatGPT. ويضيف غليف: “النقطة الأساسية المستخلصة للذكاء الاصطناعي هي أن هذه الثغرات سيكون من الصعب القضاء عليها.” “إذا لم نتمكن من حل المشكلة في مجال بسيط مثل لعبة الـGo، فإنه في المدى القريب يبدو أن هناك احتمالاً ضئيلاً لمعالجة مشكلات مشابهة مثل اختراق الحماية في “ChatGPT.

يقول تشانغ إن ما تعنيه النتائج فيما يتعلق بإمكانية إنشاء ذكاء اصطناعي يتفوق بشكل شامل على القدرات البشرية لا يزال غير واضح. ويضيف: “بينما قد يوحي هذا بشكل سطحي بأن البشر قد يحتفظون بمزايا معرفية مهمة على الذكاء الاصطناعي لبعض الوقت، أعتقد أن النقطة الأكثر أهمية هي أننا لا نفهم تمامًا أنظمة الذكاء الاصطناعي التي نبنيها اليوم”.

المصدر: Scientific American

اترك رد

Your email address will not be published.