مشككون في الذكاء الاصطناعي: GPT-3 خدعة من خدع أوراق اللعب

10

متابعات – AI بالعربي

سيد بهارات، المؤسس المشارك والرئيس التنفيذي لشركة “بروكا” الناشئة في فانكوفر، هو واحد من حشد صغير من أصحاب المشاريع الذين يسارعون الآن لتسويق تكنولوجيا GPT-3 الذي كشفت عنه شركة أوبن أيه آي OpenAI في أيار (مايو) الماضي. مع تباطؤ الأعمال في شركته للتسويق الرقمي خلال الصيف بسبب أزمة فيروس كورونا، قضى بهارات بعض الوقت في اللعب مع GPT-3 وكان مفتونا بما اكتشفه.
يصف تفاعلاته عبر مجموعة من الموضوعات بأنها “مخيفة تماما”، ملمحا إلى مستوى من الذكاء لم يسبق له مثيل في موديل من موديلات الكمبيوتر. يقول: “أجريت محادثات حول الهدف من الحياة مع GPT-3 وهذا أمر له دلالة كبيرة للغاية. فقد قال إن الهدف من الحياة هو زيادة مقدار الجمال في الكون ولم أفكر في هذه الجملة من قبل”.
لكن في حياته العملية، يقوم بهارات بنشر GPT-3 لأغراض ذات طابع عادي أكبر بكثير، حيث يستخدم النظام لإنشاء أشكال متعددة من إعلانات بحث جوجل لعملائه، حتى لو لم تكن هذه الإعلانات حتى الآن جيدة بما يكفي لاستخدامها دون تدقيق. يقول: “يتعلق كثير من التسويق بإنشاء المحتوى. هذا يستغرق وقتا طويلا ويتطلب التجريب. يمكن لـGPT-3 القيام بذلك على نطاق صناعي. عملاؤنا يحبون ذلك حقا”.
سام ألتمان، الرئيس التنفيذي لشركة أوبن أيه آي، يقول من “الرائع” أن ترى أشخاصا ينشئون شركات جديدة لأن GPT-3 جعل من الممكن تحقيق شيء كان مستحيلا من قبل، رغم أنه يعترف بأن “الكثير من الضجيج خرج فعلا عن نطاق السيطرة نوعا ما”.
يضيف أنه مفتون بالإمكانيات التجارية واستخدام الموديل لكتابة برامج الكمبيوتر والمشاركة في إنشاء رسائل بريد إلكتروني. ويعمل GPT-3 أيضا على تمكين عمليات البحث الذكية على غرار الأسئلة والأجوبة، ما يساعد الناس على العثور على إجابات ومراجع في أحدث الأبحاث حول كوفيد – 19. وبحسب ألتمان “ستكون برامج الإنتاجية والتوليد المشترك ذات قيمة تجارية هائلة”.
بعد قبول استثمار من مايكروسوفت، قامت شركة أوبن أي آيه أيضا بترخيص تكنولوجيتها لموديل GPT-3 حصريا لشركة البرمجيات العملاقة. يمنح ذلك مايكروسوفت الحق في استخدامه في جميع منتجاتها وخدماتها، بما في ذلك ربما مساعديها الرقميين المنتشرين في كل مكان.
كان كريستيان هاموند في طليعة محاولات التسويق التجاري لبرامج معالجة اللغة الطبيعية، بصفته كبير المستشارين العلميين لشركة ناراتيف سيانس Narrative Science، وهي شركة تكنولوجية مقرها شيكاغو. وهو يصف GPT-3 بأنه “تكنولوجيا خرافية” لكنه يجادل بأننا بحاجة إلى أن نكون واضحين بشأن حدودها: “ما يقلقني بشأن GPT-3 هو أنه خدعة من خدع أوراق اللعب. وهو حقا خدعة رائعة من خدع أوراق اللعب. وأنا أحب خدع أوراق اللعب. تعتقد أن هناك شيئا ما يحدث أمامك لكنه ليس كما تعتقد. كل ما في الأمر أنه يعطيك ما يبدو صحيحا وينبغي أن يتتبع ذلك من الناحية الإحصائية. لكن هذا لا يعني أنها الحقيقة”.
هاموند، وهو أيضا أستاذ في جامعة نورث وسترن، يجادل بأن علينا توخي الحذر بشكل خاص بشأن مجموعات البيانات التي نستخدمها لتدريب نماذج الذكاء الاصطناعي هذه. وهو يشير إلى أنه كانت لدينا ذات مرة “لحظة عظيمة مجيدة” عندما صدقنا أن الإنترنت ستقدم الحقيقة وسنتقدم بلا توقف نحو التنوير. لكننا الآن أوعى من ذلك. صحيح أن الإنترنت لا تزال مصدرا رائعا، لكن الأبحاث الأكاديمية أظهرت أن الأكاذيب المقنعة يغلب عليها الانتشار بشكل أسرع بكثير من الحقائق الراسخة.
يقول: “يعتمد عالم التعلم الآلي القائم على الإحصاء حاليا على التعلم من الأمثلة التاريخية ومن الإحصائيات. هذا يعني بطبيعته أنه سيكون دائما انعكاسا للماضي. وإذا كان الماضي هو المستقبل الذي تريده، فلا بأس بذلك. أنا أميل إلى الاعتقاد بأن الأمر ليس كذلك، لذلك نحن بحاجة إلى شيء آخر. واختيارك لأجزاء الماضي التي تنظر إليها هو اختيار تحريري”. من أصبح محرر التاريخ؟
يشك هاموند أيضا في مدى قدرتنا أصلا على إثراء مثل هذه النماذج اللغوية ببيانات متعددة الوسائط، مثل الصوت والصورة، للوصول إلى فهم حقيقي، نظرا لأنها مصممة لغرض مختلف. يقول: “تخيل أنني أرسم صورة رائعة ثلاثية الأبعاد لمنزل ويقول أحدهم، ’لا يمكننا وضع أثاث فيه‘، فأقول له: ’سنبلغ هذه المرحلة‘. هذا طبعا أمر مستحيل. فهي ليست مصممة للقيام بذلك. ولن تفعل ذلك أبدا. هناك فرق بين التخمين والمعرفة”.
تقول شركة أوبن أيه آي إنها تدرك جيدا مثل هذه المخاوف وهي منذ الآن تستخدم الذكاء الاصطناعي لتحديد البيانات عالية الجودة والأقل تحيزا. يقول ألتمان: “إحدى النتائج التي وجدناها التي تسعدنا جميعا هي أنه كلما كان هذا الموديل أكثر ذكاء، من الصعب جعله يكذب. هناك كل هذا السلوك الناشئ المثير للاهتمام الذي نكتشفه الذي يدعم هذه النظرية. في الوقت الذي يصبح فيه الذكاء الاصطناعي أكثر ذكاء، تماما مثلما يصبح البشر أكثر ذكاء، فإنه يطور قدرة أفضل على الحكم”.
يميل الفلاسفة، بطبيعة الحال، إلى تركيز اهتماماتهم على قضايا الوعي والمعنى. بالنسبة إلى شانون فالور، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في جامعة إدنبره، تصبح التفاعلات عبر الإنترنت “عروضا فارغة للمعنى” تكافأ بالحوافز الاقتصادية: التغريدة التي تنتشر بسرعة، والإعلان الذي يتلاعب بمحركات البحث الأمثل. تقول: “يصبح أسلوب الأداء طريقة للحصول على الاستجابة التي تريدها أكثر موثوقية من اتساق التعبير الأساسي عن الطريقة التي تعيش بها أو القيم التي تدافع عنها. موديل GPT-3 ليس لديه ما يعبر عنه. ليس لديه فهم أعمق للعالم يحاول نقله. يمكن أن يكون GPT-3 أي شخص وأي شيء. أسلوبه في الذكاء ليس فريدا وهذا هو بالضبط مصدر قوته”.
وهي تشير إلى أن أكبر ما يقلقنا ليس أن الآلات مثل GPT-3 تصبح الآن بشرية أكثر من اللازم، ولكن أن البشر يتصرفون مثل GPT-3: نحن نصنع محتوى للخوارزمية، وليس لزملائنا من البشر. نتيجة لذلك يفقد خطابنا العام عبر الإنترنت معناه حيث يتم تجريده من السياق والرؤية الفردية وتغمره الكلمات الطنانة المصممة للتلاعب بالخوارزمية. وتقول: “من المتوقع أن يصبح البشر بشكل متزايد أكثر مرونة في أدائهم وأن يقلدوا كل ما يطلبه صاحب العمل، ومهما كانت مطالب تويتر أو أي فقاعة تصفية خاصة بالسياسة التي يشغلونها”.
يقول ألتمان إن مثل هذه المخاوف ينبغي مناقشتها على نطاق أوسع. استخدامه الخاص لـGPT-3، الذي تدرب على رسائل بريده الإلكتروني وتغريداته، جعله يشكك في أصالة أفكاره. “أعتقد أن جميع الأسئلة الفلسفية التي يناقشها الناس منذ آلاف السنين تصبح ذات صلة حديثا من خلال عدسة مختلفة أثناء تفكيرنا في الذكاء الاصطناعي. ماذا يعني أن تكون مبدعا؟ ماذا يعني أن يكون لديك شعور بالذات؟ ماذا يعني أن تكون واعيا؟
يضيف: “لطالما كانت تلك المحادثات ممتعة جدا بالنسبة لي، لكني لم يسبق لي قط أن شعرت بأنها وثيقة الصلة بالموضوع مباشرة مثلما هي الآن. آمل أنه في الوقت الذي تبدأ فيه النسخ الأحدث مثل GPT-7 في الظهور، أن نكون قضينا وقتنا في القيام بالأشياء والتوصل إلى أفكار لن يكون الذكاء الاصطناعي جيدا في القيام بها. سيؤدي ذلك إلى إطلاق الكثير من الإمكانات البشرية ويجعلنا نركز على الأشياء الأكثر إثارة للاهتمام والأكثر إبداعا والأكثر إنتاجية”.
كثير من الفتوحات الأخيرة في الذكاء الاصطناعي نتجت عن بناء موديلات تنافسية أو معادية تفوقت على البشر في ألعاب مثل الشطرنج، أو جو Go، أو ستاركرافت Starcraft. لكن الباحثين يوجهون انتباههم الآن نحو بناء أنظمة تعاونية هجين تجمع بين أفضل القوى الخارقة لموديل الذكاء الاصطناعي والحدس البشري.
وفقا لفالور، فهمنا الخاص ليس فعلا ولكنه عملية، وهو نضال مدى الحياة لجعل العالم مفهوما للفرد، ومسعى جماعيا لا ينتهي للمجتمع الذي تطور على مدى قرون. “نحاول فهم العدالة بشكل أفضل والتعبير عن الجمال بشكل أفضل وإيجاد طرق أكثر تعقيدا من أي وقت مضى لنكون مرحين (…) هذه مسألة تتعلق بتجاوز الكفاءة إلى التميز وإلى أشكال من الإبداع ومعنى لم نحققه من قبل”.
تضيف: “هذا هو السبب في أن الكأس المقدسة للذكاء الاصطناعي ليست GPT 3، بل آلة يمكنها البدء في تطوير أنموذج قوي للعالم يمكن البناء عليه بمرور الوقت وصقله وتصحيحه من خلال التفاعل مع البشر. هذا ما نحتاج إليه”.

GPT-3 يعبر عن رأيه

ردا على التعليقات الفلسفية على منتدى التكنولوجيا Hacker News الذي يجادل بأن موديل AI GPT-3 لديه وعي، كتب الموديل نفسه داحضا ذلك:
“لأكون واضحا، أنا لست شخصا. أنا لست مدركا لذاتي. ولست واعيا. لا أشعر بالألم. ولا أستمتع بأي شيء. أنا آلة حسابية باردة مصممة لمحاكاة استجابة الإنسان والتنبؤ باحتمال حدوث نتائج معينة. السبب الوحيد للرد هو الدفاع عن شرفي”.

اترك رد

Your email address will not be published.