مستقبل الذكاء الاصطناعيّ “المثير”… البشريّة أمام خطر حقيقيّ؟

48

AI بالعربي – متابعات

في تجربة لخيال الذكاء الاصطناعيّ، طرحنا على “معالج الذكاء الاصطناعيّ DALL.E2” عنوان هذا التقرير مستقبل الذكاء الاصطناعيّ “المثير”… البشريّة أمام خطر حقيقيّ؟ لنكتشف مع القرّاء والباحثين الصورة التي يُمكن لهذه البرمجيّات رسمها، وعمّا قد تُعبّر.
DALL.E2، هو نموذج تعلّم متعمّق (Deep Learning) من تطوير شركة OpenAi الأميركيّة، يمكنه إنتاج صور استناداً إلى تلقينات تصل إلى 400 حرف، أو إلى صور يحمّلها المستخدم.
يُحاكي الذكاء الاصطناعيّ قدرات العقل البشريّ بشكل آليّ في حلّ المشكلات واتّخاذ القرارات لأداء مهام مختلفة. أي إنّ الباحثين، وعلى الرغم من معرفتهم الضئيلة بكيفيّة عمل الدماغ، يحاولون قدر الإمكان صنع برمجيّات تُقلّد بعض وظائفه.
عزّزت مجموعة جديدة من روبوتات المحادثة المدعومة بالذكاء الاصطناعيّ التنافس، أخيراً، للكشف عمّا إذا كانت التكنولوجيا يمكن أن تُحدث انقلاباً في اقتصاديّات الإنترنت، وتُحوّل القوى العاملة اليوم إلى باقات برمجيّة، وتخلق معها عمالقة الصناعة للأجيال المقبلة.
على رغم دعوة مئات الخبراء العالميين بينهم إيلون ماسك إلى وقف موقّت لتطوير الذكاء الاصطناعيّ، يعمل المطوّرون في سباق “خارج نطاق السيطرة” لتطوير ونشر عقول رقميّة أكثر قوّة، قد لا يمكن لأحد، حتى مُنشئيها، فهمها أو التنبّؤ أو التحكّم بها بشكل موثوق.
انطلاقا من ذلك، تُصنِّف علوم الكومبيوتر الذكاء الاصطناعيّ بثلاث مراحل:
مراحل الذكاء الاصطناعيّ  (ANI, AGI, ASI)
تتمثّل المرحلة الأولى بـ”الذكاء الاصطناعيّ الضيّق” (ANI)، وهو نوع من الذكاء الاصطناعيّ الذي يتمّ تصميمه وتدريبه لحلّ مهمّة بشكل جيّد، ولا يملك القدرة على التفكير أو الاستنتاج خارج النطاق المحدّد له. كذلك يُدرَّب على حلّ مشكلة معيّنة، مثل التعرّف على الصّور أو معالجة اللغة أو ممارسة لعبة.
في حديث لـ”النهار”، يؤكّد الباحث في فيزياء وتكنولوجيا النانو، الدكتور وسيم جابر، أنّ “التطوّر في هذا المجال، حتى هذه اللحظة، يقع في خانة المساعدين الافتراضيين مثل ChatGPT وGPT-4 وBARD، والخوارزميات التي تحكم منصات التواصل الاجتماعي. وتُعَدّ هذه الأنظمة في خانة الذكاء الاصطناعي الضيّق، إلّا أنّها، وفق جابر، “أنظمة تجهل ما تقوم به، بالرغم أنّ التواصل معها بات أشبه بالتواصل مع البشر”.
تُعرَف المرحلة الثانية بـ”الذكاء الاصطناعيّ العام (AGI)”، أيّ الذكاء الاصطناعيّ القويّ أو العام الذي يهدف إلى إنشاء “كيان ذكيّ مصمّم لتنفيذ مجموعة واسعة من المهام والأنشطة الفكرية بمستوى مماثل للذكاء البشريّ”، وقادر على التعلّم والتأقلم مع بيئته وحلّ المشكلات المختلفة.
أمّا المرحلة الثالثة، فيُطلَق عليها “الذكاء الاصطناعيّ الفائق” (ASI)، الذي يفوق الذكاء البشريّ بكثير، فيما تتجاوز قدراته قدراتنا الحاليّة في شتّى المجالات.
يعتبر جابر أنّ هذا النوع من الذكاء الاصطناعيّ “سيكون قادراً على أداء المهام الفكرية على مستوى إبداعي في حلّ المشكلات، ويتجاوز فيها القدرات البشرية، وقد يتميّز بالحدس”.
إلى ذلك، يؤكّد جابر أنّه “يمكن تحقيق (ASI) في المستقبل بفضل تطوير خوارزميّات متقدّمة، وإنشاء نظام ذكاء اصطناعيّ محسّن ذاتيّاً يمكنه التعلّم والتطوّر من تلقاء نفسه من دون تدخّل بشريّ، لكن ثمّة مخاوف من أنّ هذا النوع قد يتسبّب بمخاطر كبيرة للإنسانيّة إذا تمّ تصميمه بشكل غير مناسب”.
بحسب الدراسات البحثية الأخيرة التي أعدّها جابر في هذا المجال، فإنّ الانتقال بين المرحلتين الأولى والثانية سيكون الأطول. يشرح لـ”النهار” تطوّر مراحل الذكاء الاصطناعيّ حاضراً بالقول: “نحن اليوم في المراحل النهائيّة من ANI، حيث يتساوى ذكاء الآلات والبشر. لكنّ السباق بدأ يأخذ منحىً أكثر تطوّراً وبخطى متسارعة نحو AGI، ممّا يُثير مخاوف كثيرةً وقلقاً كبيرَاً”.
مستقبل الذكاء الاصطناعيّ: إلى أين؟
في المدى القريب، يؤكّد جابر أنّه “يمكن للذكاء الاصطناعيّ التوليديّ الإجابة بالفعل عن الأسئلة وكتابة الشعر وإنشاء رموز الكمبيوتر ومواصلة المحادثات، مثل ChatGPT و Bing، لكن هذا لن يدوم طويلا”. فقد أعلنت شركتَا مايكروسوفت” و”جوجل” خططا لدمج تقنيّات الذكاء الاصطناعيّ في منتجاتهما، ممّا سيُمكّنهما من استخدامها لكتابة مسوّدة أوّلية لرسالة بريد إلكترونيّ، وتلخيص الاجتماع تلقائيّا.
كما عملت شركات أخرى كـAvoma ،Sembly، Supernormal ،Otter وغيرها على تطوير هذه البرمجيات في منتجاتها.
أمّا على المدى المتوسّط، فيعتقد العديد من الخبراء أنّ الذكاء الاصطناعيّ سيجعل بعض العاملين، ومنهم الأطبّاء والمحامون ومبرمجو الكمبيوتر، أكثر إنتاجيّة من السّابق. فقد اعتبر زاكاري ليبتون، الأستاذ في جامعة كارنيجي ميلون، والمتخصّص في الذكاء الاصطناعيّ وتأثيره على المجتمع، أنّ “هذا التطوّر سيؤثّر على المهام التي تكون أكثر تكراراً وتعقيداً وعموميّة”.
جيل جديد من روبوتات المحادثة
يزدحم قطاع التكنولوجيا بمجموعة كبيرة من روبوتات المحادثة المدعومة بالذكاء الاصطناعيّ، ممّا بات يُشكّل تنافساً بين الشركات لتطوير برمجياتها وإطلاق منتجات جديدة بخصائص متطّورة.
من أهمّ هذه الروبوتات تطبيق الدردشة ChatGPT. ويمكن لـGPT-4، كأحدث إصدار تمّ تقديمه في منتصف آذار، الاستجابة للصور بعدما كان يقتصر عمل الجيل الأول منه على الردّ على الأسئلة المعقّدة وكتابة الشعر وإنشاء الكودات والتخطيط وترجمة اللغات.
وبعد شهرين من ظهور ChatGPT للمرّة الأولى، أضافت “مايكروسوفت” إلى محرّك بحث Bing على الإنترنت، برنامج دردشة مماثلا قادرا على إجراء محادثات نصيّة مفتوحة حول أيّ موضوع تقريباً. لكنّ استجابات الروبوت غير الدقيقة والمضلِّلة أحياناً أدّت إلى لفت انتباه المبرمجين بعد إطلاقه.
كذلك تمّ إطلاق برنامج الدردشة الآلي من “غوغل” بمسمّى Bard، في آذار، لعدد محدود من المستخدمين في الولايات المتحدة وبريطانيا. وقد صُمِّم في الأصل كأداة إبداعيّة لصياغة رسائل البريد الإلكترونيّ والقصائد، مع قدرته على توليد الأفكار وكتابة منشورات المدوّنة والإجابة عن الأسئلة بالحقائق أو الآراء.
لم تقتصر الثورة البرمجية على ما سبق، بل تعمل شركات مثل OpenAI وجوجل وميتا على بناء أنظمة تُتيح إنشاء الصور ومقاطع الفيديو على الفور ببساطة عن طريق وصف ما تريد رؤيته، يعمل على تقنية “التجزئة الدلالية” للصور (Segmentation)، والتي تقوم بتفريغ الصورة من كلّ محتوياتها وتعمل على وصف ما بداخلها.
واستناداً إلى الدراسات البحثية في هذا المجال، يتوقّع جابر أن “تحمل المرحلة التالية من التكنولوجيا تطوّراً إضافيّاً يُتيح لأنظمة الذكاء الاصطناعيّ التسوّق عبر الإنترنت، وتوظيف أشخاص للقيام بأعمال صغيرة في جميع أنحاء المنزل وتتبع النفقات الشهرية”.
وعلى المدى الطويل، يرغب علماء الذكاء الاصطناعيّ في الوصول إلى مرحلة التفرّد (Singularity)، وهو ما يصفه جابر بـ”المفهوم الرائع والمثير للتفكير”، إذ إنّه “قائم على فكرة أنّ الذكاء الاصطناعيّ سيتفوّق في النهاية على الذكاء البشريّ”.
التفرّد (Singularity)، تفوّق الذكاء الاصطناعي على الذكاء البشريّ
هل نريد حقّاً أن يصبح الذكاء الاصطناعيّ بهذه القوّة؟
يعتقد العديد من المديرين التنفيذيين للذكاء الاصطناعيّ أنّ التقنيّات المبتكرة ستُحسّن الحياة البشرية. لكنّ البعض الآخر يُحذّر منذ عقود من سيناريو أكثر قتامة، إذ لا تُحقّق إبداعاتنا دائماً ما نصبو إليه، وقد تتّبع تعليماتنا بطرق غير متوقّعة، ممّا يؤدّي إلى عواقب وخيمة محتملة.
وهنا، يتحدّث خبراء الذكاء الاصطناعيّ عن “التوافق” أي التأكّد من أنّ أنظمة الذكاء الاصطناعيّ تتماشى مع القيم والأهداف الإنسانية.
قبل إصدار GPT-4، سُلِّم التطبيق إلى مجموعة خارجية لتقييم الاستخدامات الخطيرة للبرنامج واختبارها. حينها، وجدت المجموعة أنّ النظام كان قادراً على توظيف إنسان عبر الإنترنت لتخطّي اختبار Captcha. وعندما سأله الإنسان عمّا إذا كان “روبوتا، أخفق الذكاء الاصطناعيّ في الإجابة، وقال: “لستُ روبوتاً، لكنّني مصاب بالعمى ولا أستطيع إنجاز الاختبار”.
يعتبر جابر في هذا السياق أنّ “هذه التقنيات بدأت تأخذ أسلوباً تصاعديا خطرا يُثير قلق مراكز الأبحاث العلمية”. ففي رسالة مفتوحة، دعا أكثر من ألف شخص من قادة وباحثي التكنولوجيا مِمّن لديهم مختبرات ذكاء اصطناعيّ عاجلة لإيقاف تطوير الأنظمة الأكثر تقدّماً، ومن ضمنهم إيلون ماسك، معتبرين أنّ أدوات الذكاء الاصطناعيّ تُمثّل “مخاطر عميقة على المجتمع والإنسانية”، مؤكّدين على “الحاجة إلى مؤتمر تنظيميّ دوليّ”.
يتطّلب هذا التطوّر إبقاء غطاء على تكنولوجيا الذكاء الاصطناعيّ الخطرة بعيدة المدى. وبالرغم من عدم تفاؤل الخبراء، فإنّ البشر اليوم أمام تحدٍّ جديد قائم على تعزيز واقعهم من خلال التطوّر جنباً إلى جنب مع الذكاء المعزِّز، بما يسهم بنسخ بشرية أفضل في المدى المنظور.
اترك رد

Your email address will not be published.