مقالات

الذكاء الاصطناعي.. تقدم مخيف

بارمي أولسون

يتحرك الذكاء الاصطناعي بسرعة كبيرة لدرجة أن العلماء أنفسهم يجدون صعوبة في مواكبته. والعام الماضي، بدأت خوارزميات التعلم الآلي في إنتاج أفلام بدائية وصور مزيفة مذهلة، بل أصبحت هذه الخوارزميات تكتب أكواداً برمجة بنفسها. وفي المستقبل، ربما ننظر خلفنا إلى 2022 باعتباره العام الذي تحول فيه الذكاء الاصطناعي من معالجة المعلومات إلى إنشاء محتوى إلى جانب كثيرين من البشر. لكن ماذا إذا نظرنا إليه أيضاً على أنه العام الذي اتخذ فيه الذكاء الاصطناعي خطوة نحو تدمير الجنس البشري؟ صحيح أن هذه الأصوات مبالغ فيها ومثيرة للسخرية، لكن شخصيات عامة مثل «بيل جيتس» و«إيلون ماسك» وستيفن هوكينج- وفي الماضي، عالم الرياضيات آلان تورينج- عبروا عن مخاوفهم بشأن مصير البشر في عالم تتفوق عليهم فيه الآلات في الذكاء. فقد ذكر ماسك ذات يوم أن الذكاء الاصطناعي أصبح أكثر خطورة من الرؤوس الحربية النووية.

وعلى كل حال، لا يُعامل البشر الأنواع الأقل ذكاء جيداً بشكل خاص. فمن ذا الذي يقول إن أجهزة الكمبيوتر المدربة على البيانات الخاصة بجميع جوانب السلوك البشري، لن «تضع أهدافها قبل أهدافنا» كما حذر عالم الكمبيوتر مارفن مينسكي ذات مرة. لكن المنعش في الأمر أن هناك بعض الأخبار الجيدة. فهناك عدد متزايد من العلماء يسعى إلى جعل أنظمة التعلم العميق أكثر شفافية وقابلية للقياس. ويجب ألا يتوقف هذا الزخم. ونظراً لأن هذه البرامج أصبحت أكثر تأثيراً في الأسواق المالية ووسائل التواصل الاجتماعي وسلاسل التوريد، فستحتاج شركات التكنولوجيا إلى البدء في إعطاء الأولوية لسلامة الذكاء الاصطناعي على قدرته. والعام الماضي، وفي عدد من مختبرات الذكاء الاصطناعي الكبرى في العالم، ركز ما يقرب من 100 باحث متفرغ على بناء أنظمة آمنة، وفقاً لتقرير حالة الذكاء الاصطناعي لعام 2021 الذي يصدره سنوياً المستثمران «إيان هوجارث» و«ناثان بانيتش». ووجد تقرير هذا العام أنه ما زال هناك نحو 300 باحث فقط يعملون متفرغين على سلامة الذكاء الاصطناعي.
ويرى «هوجارث» خلال مناقشة معي على «تويتر سبيسز» هذا الأسبوع حول التهديد المستقبلي للذكاء الاصطناعي أن الأمر لا يقتصر على أن هناك «قلة قليلة من الأشخاص يعملون على إخضاع هذه الأنظمة فحسب، بل أيضاً يسود نمط من انعدام القانون». ويشير هوجارث إلى أنه في العام الماضي ظهرت موجة من أدوات وأبحاث الذكاء الاصطناعي من مجموعات مفتوحة المصدر تقول إن الآلات فائقة الذكاء يجب ألا يتحكم بها عدد قليل من الشركات الكبيرة وتصنعها سراً، لكن يجب إنتاجها في فضاء مفتوح. وفي أغسطس 2021، على سبيل المثال، طورت منظمة «EleutherAI» (إيليثير أيه. أي) التي تقودها هذه الجماعات مفتوحة المصدر نسخة عامة من أداة قوية يمكنها كتابة تعليقات ومقالات واقعية حول أي موضوع تقريباً، تسمى «GPT-Neo» (جي. بي.تي-نيو). والأداة الأصلية، المسماة (جي. بي.تي-3) طورتها شركة «OpenAI» (أوبن أيه. أي)، وهي شركة ساهم في تأسيسها ماسك وتمولها مايكروسوفت التي توفر إمكانية وصول محدودة إلى أنظمتها القوية.

ثم، هذا العام، بعد أشهر من إبهار «أوبن. أيه. أي» لمجتمع الذكاء الاصطناعي بنظام ثوري لتوليد الصور يسمى «DALL-E 2» (دال-إ.2)، أصدرت شركة مفتوحة المصدر تدعى «Stable Diffusion» (ستيبل ديفيوشن) نسختها الخاصة من الأداة للجمهور مجاناً. وتتمثل إحدى فوائد البرامج مفتوحة المصدر في أنه من خلال توافرها للجمهور، يقوم عدد أكبر من الأشخاص بتمحيصه باستمرار بحثاً عن أوجه القصور. وهذا هو السبب الذي جعل برنامج «لينكس»، تاريخياً، واحداً من أكثر أنظمة التشغيل المتاحة للجمهور أماناً. لكن طرح أنظمة ذكاء اصطناعي قوية متاحة للجمهور يفاقم أيضاً خطر إساءة استخدامها. وإذا كان الذكاء الاصطناعي محتمل الضرر مثل فيروس أو تلوث نووي، فمن المنطقي، ربما، أن يكون مركزي التطوير. فالفيروسات يجري فحصها في مختبرات السلامة الحيوية ويتم تخصيب اليورانيوم في أوساط خاضعة لقيود مشددة. وتخضع الأبحاث المتعلقة بالفيروسات والطاقة النووية لإشراف تنظيمي، لكن على الرغم من متابعة الحكومات للوتيرة السريعة للذكاء الاصطناعي، لا توجد حتى الآن مبادئ استرشادية واضحة لتطويره.
والذكاء الاصطناعي عرضة لإساءة الاستخدام من خلال إنتاجه في فضاء مفتوح، لكن لا أحد يشرف على ما يحدث حين يتم ابتكاره خلف أبواب مغلقة أيضاً. وحالياً على الأقل، من المشجع أن نرى تزايد التركيز على السيطرة على الذكاء الاصطناعي، وهو مجال متطور يشير إلى تصميم أنظمة ذكاء اصطناعي «خاضعة» لأهداف البشر. ولدى شركات الذكاء الاصطناعي الرائدة مثل «ديبمايند» و«أوبن أيه. أي» التابعتين لشركة ألفابت، فرق كثيرة تعمل على السيطرة على الذكاء الاصطناعي. وخرج كثيرون من باحثي هذه الشركات ليدشنوا شركاتهم الناشئة التي يركز بعضها على جعل الذكاء الاصطناعي آمناً. ومن بين هذه الشركات هناك شركة «أنثروبيك Anthropic» التي ترك فريقها المؤسس «أوبن أيه. أي» وجمع 580 مليون دولار من المستثمرين في وقت سابق هذا العام، وأيضاً شركة «كونجكتشر» التي دعمها في الآونة الأخيرة مؤسسو شركات «جيتهاب» و«سترايب» و«إف.تي.إكس. تريدينج».

وتعمل شركة «كونجكتشر» على افتراض أن الذكاء الاصطناعي سيعادل الذكاء البشري في السنوات الخمس المقبلة، وأن مساره الحالي ينذر بكارثة للجنس البشري. لكن حين سألت كونور ليهي، الرئيس التنفيذي للشركة، عن سبب رغبة الذكاء الاصطناعي في إيذاء البشر في المقام الأول، أجاب قائلاً: «تخيلي أن البشر يريدون إغراق واد لبناء سد لتوليد الطاقة الكهرومائية، وهناك أوكار نمل في الوادي. هذا لن يمنع البشر من البناء، وأوكار النمل ستغرق على الفور. لم يفكر أي إنسان بحال من الأحوال في إيذاء النمل. لقد أرادوا فقط المزيد من الطاقة، وكانت هذه هي الطريقة الأكثر فعالية لتحقيق هذا الهدف. وبالمثل، يحتاج الذكاء الاصطناعي المستقل إلى مزيد من الطاقة، وتواصل أسرع، ومزيد من الذكاء لتحقيق أهدافه».

ويعتقد ليهي أنه لمنع هذا المستقبل المظلم، يحتاج العالم إلى «مجموعة من الرهانات»، تتضمن التدقيق في خوارزميات التعلم العميق لفهم كيفية اتخاذ القرارات بشكل أفضل، ومحاولة تغذية الذكاء الاصطناعي بالمزيد من التفكير الشبيه بالإنسان. وحتى لو بدت مخاوف ليهي مبالغاً فيها، فمن الواضح أن الذكاء الاصطناعي لا يسير في طريق يتوافق فيه تماماً مع مصالح البشر. وما على المرء إلا إلقاء نظرة على بعض الجهود في الآونة الأخيرة لإنتاج روبوتات محادثة. فقد تخلت مايكروسوفت عن برنامج الروبوت «تاي» لعام 2016، الذي تعلم من التفاعل مع مستخدمي تويتر بعد أن نشر رسائل عنصرية وجنسية الإيحاء في غضون ساعات من إصداره. وفي أغسطس من العام الجاري، أطلقت شركة «ميتا بلاتفورمز» برنامج دردشة أدعى أن دونالد ترامب ما زال رئيساً، بعد أن تدرب على الرسائل النصية الشائعة على الإنترنت. ولا أحد يعرف إذا ما كان الذكاء الاصطناعي سيعيث الفساد في الأسواق المالية أو ينسف سلسلة توريد الغذاء يوماً ما. لكنه قد يجعل البشر يعادون بعضهم البعض عبر وسائل التواصل الاجتماعي، وهو ما قد يكون يحدث بالفعل. وحين يتعلق الأمر بـ «اصطفاف الذكاء الاصطناعي»، سيمثل تغيير هذه الحوافز بداية جيدة.

المصدر
الإتحاد

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى