في سباق الذكاء العام الاصطناعي: أين خط النهاية؟

13

Lauren Leffer

لسماع شركات مثل OpenAI، التي طورت ChatGPT، فإن الذكاء العام الاصطناعي “AGI” هو الهدف النهائي لأبحاث التعلم الآلي والذكاء الاصطناعي. ولكن: ما هو مقياس الآلة الذكية بشكل عام؟ في عام 1970، تنبأ عالم الكمبيوتر مارفن مينسكي أن الآلات التي ستُطور قريبًا ستكون قادرة على “قراءة شكسبير، وتزييت سيارة، ولعب سياسات المكتب، وإلقاء نكتة، وخوض شجار”. بعد سنوات، اقترح اختبار القهوة، الذي يُنسب غالبًا إلى ستيف وزنياك، المؤسس المشارك لشركة Apple، أن AGI سيتحقق عندما تتمكن آلة من دخول منزل غريب وإعداد كوب من القهوة.

يُعدّ مفهوم “الذكاء الاصطناعي العام” (AGI) من أكثر الموضوعات إثارة للنقاش في عالم التكنولوجيا اليوم، لكنّه يفتقر إلى تعريف واضح متفق عليه عالميًا. فبينما يُشير بعض الخبراء إلى قدرة الآلات على محاكاة القدرات الذهنية البشرية بشكل كامل، يرى آخرون أن AGI يتعلق بقدرة الآلات على التعلم والتكيّف مع أي مهمة أو بيئة، تمامًا كما يفعل البشر.

ولكن بغض النظر عن التعريف الدقيق، يجمع الخبراء على أن AGI يحمل إمكانيات هائلة، سواءً من ناحية الفوائد أو المخاطر .فمن ناحية، يمكن أن تُساهم هذه التكنولوجيا في حلّ بعض أكثر مشكلات العالم إلحاحًا، مثل تغير المناخ والأمراض. بينما من ناحية أخرى، تُثير مخاوف أخلاقية حول إمكانية سيطرة الآلات على البشرية أو استخدامها لأغراض ضارة.

ويُظهر ازدياد استخدام مصطلح AGI في وسائل الإعلام والأبحاث العلمية، مدى اهتمام العالم بهذا المجال. ففي العام الماضي، أعلن باحثو شركة Microsoft عن تحقيق نموذجهم” GPT-4 بوارق من”AGI ، بينما أكدت شركة OpenAI في مايو الماضي عملها على تطوير نموذج تعلم آلي جديد يُعدّ “الخطوة التالية” على طريق تحقيق .AGI بل ذهب بعض علماء الكمبيوتر البارزين إلى حدّ القول إن نماذج اللغة الكبيرة التي تُنتج النصوص قد وصلت بالفعل إلى مرحلة  .AGI

لمعرفة كيفية التحدث عن AGI، واختبار AGI، وإدارة إمكانية AGI، سيتعين علينا أن نفهم بشكل أفضل ما يصفه هذا المصطلح بالفعل.

الذكاء العام

أصبح مصطلح الذكاء العام الاصطناعي “”AGI شائعًا بين علماء الكمبيوتر الذين كانوا محبطين مما رأوه تضييقًا لمجالهم في أواخر التسعينيات وأوائل العقد الأول من القرن الحادي والعشرين، كما تقول ميلاني ميتشل، أستاذة وعالمة الكمبيوتر في معهد سانتا فيه. كان هذا رد فعل على مشاريع مثل Deep Blue، النظام الذي يلعب الشطرنج والذي تغلب على الأستاذ الكبير غاري كاسباروف وأبطال آخرين من البشر. شعر بعض باحثي الذكاء الاصطناعي أن زملاءهم يركزون بشكل مفرط على تدريب الحواسيب لإتقان مهام فردية مثل الألعاب، وفقدان الهدف الرئيس، وهو آلات قادرة بشكل عام وشبيهة بالبشر. تقول ميتشل: “تم استخدام AGI لمحاولة العودة إلى ذلك الهدف الأصلي”. كان ذلك بمنزلة إعادة معايرة.

في حين يُنظر إلى الذكاء الاصطناعي العام (AGI) من قبل البعض على أنه هدف طموح وواعد، إلا أن آخرين يرون فيه مصطلحًا مثيرًا للانقسام، بل “ازدرائيًا” كما تصفه جوانا برايسون، أستاذة الأخلاقيات والتكنولوجيا في مدرسة Hertie في ألمانيا.

ففي ذلك الوقت، عندما كانت برايسون تعمل في مجال أبحاث الذكاء الاصطناعي، اعتبرت أن المصطلح يُقسم هذا المجال إلى مجموعتين من علماء الكمبيوتر:

  • المجموعة الأولى: تضمّ الذين يُعتبرون يعملون على تحقيق AGI بشكل مباشر، أي نظام قادر على أداء أي مهمة يمكن للإنسان القيام بها.
  • المجموعة الثانية :تضمّ جميع الباحثين الآخرين الذين يُفترض أنهم يعملون على أهداف محدودة “تافهة” لا تُساهم في تحقيق .AGI

وترى برايسون أن العديد من هذه الأهداف “الضيقة”، مثل تعليم الكمبيوتر لعب الألعاب، قد أدت في الواقع دورًا هامًا في تقدم مجال الذكاء الاصطناعي.

تعريفات أخرى لـAGI قد تبدو بنفس القدر من التنوع والغموض. في أبسط صوره، هو اختصار لآلة تساوي أو تتفوق على الذكاء البشري. لكن “الذكاء” نفسه هو مفهوم يصعب تحديده أو قياسه. “الذكاء العام” أكثر تعقيدًا، كما يقول غاري لوبيان، عالم الأعصاب الإدراكي وأستاذ علم النفس في جامعة ويسكونسن –ماديسون. من وجهة نظره، يكون باحثو الذكاء الاصطناعي غالبًا “مفرطين في الثقة” عندما يتحدثون عن الذكاء وكيفية قياسه في الآلات.

يحاول علماء الإدراك تحديد العناصر الأساسية للذكاء البشري منذ أكثر من قرن. ومن المسلم به عمومًا أن الأشخاص الذين يؤدون جيدًا في مجموعة من الأسئلة الإدراكية يميلون أيضًا إلى الأداء الجيد في مجموعات أخرى، وقد نُسب هذا إلى بعض الجوانب القابلة للقياس من العقل البشري، والتي لم تُحدد بعد، وغالبًا ما تُسمى “عامل g”. لكن لوبيان والعديد من الآخرين يعارضون هذه الفكرة، بحجة أن اختبارات الذكاء وغيرها من التقييمات المستخدمة لقياس الذكاء العام، هي مجرد لقطات للقيم الثقافية والظروف البيئية الحالية. يقول لوبيان إن طلاب المدارس الابتدائية الذين يتعلمون أساسيات برمجة الكمبيوتر وطلاب المدارس الثانوية الذين يجتازون دروس التفاضل والتكامل، قد حققوا ما كان “خارج نطاق الإمكان للأشخاص منذ بضع مئات من السنين فقط”. ومع ذلك، لا يعني هذا بالضرورة أن أطفال اليوم أكثر ذكاءً من البالغين في الماضي. بل بدلاً من ذلك، اكتسب البشر المزيد من المعرفة كنوع وقاموا بتحويل أولويات تعلمنا بعيدًا عن المهام المتعلقة مباشرة بالنمو واكتساب الطعام، ونحو القدرة الحسابية بدلاً من ذلك.

“لا يوجد شيء اسمه الذكاء العام، سواء كان اصطناعيًا أو طبيعيًا”، تتفق أليسون جوبنيك، أستاذة علم النفس في جامعة كاليفورنيا، بيركلي. تلاحظ جوبنيك أن أنواعًا مختلفة من المشكلات تتطلب أنواعًا مختلفة من القدرات الإدراكية، لا يمكن لأي نوع واحد من الذكاء فعل كل شيء. في الواقع، تضيف جوبنيك، يمكن أن تكون القدرات الإدراكية المختلفة في حالة توتر مع بعضها البعض. على سبيل المثال، الأطفال الصغار مهيؤون ليكونوا متعلمين مرنين وسريعين، مما يسمح لهم بإقامة العديد من الروابط الجديدة بسرعة. لكن بسبب نموهم العقلي السريع والتغيرات التي يمرون بها، لا يصبحون مخططين جيدين على المدى الطويل. تنطبق مبادئ وقيود مماثلة على الآلات أيضًا، كما تقول جوبنيك. فمن وجهة نظرها، AGI ليس أكثر من “شعار تسويقي جيد جدًا”.

الأداء العام

في عام 1988، صاغ هانز مورافيك “مفارقة مورافيك”، التي تُشير إلى ظاهرة غريبة :بينما تتمتع الآلات بقدرات هائلة على أداء العمليات الحسابية المعقدة، تُواجه صعوبات كبيرة في إنجاز المهام البسيطة التي يُتقنها البشر بسهولة، مثل طي الملابس أو لف مقابض الأبواب.

عندما أصبح من الواضح أن الآلات ستستمر في الكفاح من أجل التلاعب بالأشياء بفعالية، فقدت التعريفات الشائعة لـAGI صلتها بالعالم المادي، كما تلاحظ ميتشل. أصبح AGI يمثل إتقان المهام الإدراكية، ثم ما يمكن أن يفعله الإنسان على الكمبيوتر.

في ميثاقها، تعرف شركة OpenAI الذكاء العام الاصطناعي بأنه “أنظمة عالية الاستقلالية تتفوق على البشر في معظم الأعمال ذات القيمة الاقتصادية”. ومع ذلك، في بعض التصريحات العامة، أعرب مؤسس الشركة، سام ألتمان، عن رؤية أكثر انفتاحًا. قال في مقابلة حديثة: “لم أعد أعتقد أن AGI هو لحظة زمنية معينة. على الأرجح لن نتفق، أنا وأنت، على الشهر أو حتى السنة التي سنقول فيها، (حسنًا، هذا هو AGI)”.

قام محكمون آخرون لتقدم الذكاء الاصطناعي بالتركيز على التفاصيل بدلاً من احتضان الغموض. في ورقة بحثية أولية عام 2023، اقترح باحثو Google DeepMind ستة مستويات من الذكاء يمكن من خلالها تقييم الأنظمة الحاسوبية المختلفة: الأنظمة التي ليس لديها أي قدرة على الذكاء الاصطناعي “No AI”، تليها ناشئة “Emerging”، ومؤهلة “Competent”، وخبيرة “Expert”، وبارعة “Virtuoso”، وفائقة البشرية “Superhuman” AGI. علاوة على ذلك، يقوم الباحثون بفصل الآلات إلى أنواع “ضيقة” – خاصة بالمهمة – أو “عامة”. تقول المؤلفة الرئيسية، ميريديث رينجل موريس: “غالبًا ما يكون AGI مفهومًا مثيرًا للجدل. أعتقد أن الناس يقدرون حقًا أن هذا تعريف عملي وتجريبي للغاية”.

للوصول إلى توصيفاتهم، ركزت موريس وزملاؤها بشكل صريح على العروض التوضيحية لما يمكن أن يفعله الذكاء الاصطناعي بدلاً من كيفية أداء المهام. تقول موريس إن هناك “أسئلة علمية مهمة” يجب طرحها حول كيفية تحقيق نماذج اللغة الكبيرة وأنظمة الذكاء الاصطناعي الأخرى لمخرجاتها، وما إذا كانت تُكرر حقًا أي شيء يشبه الإنسان، لكنها وزملاءها أرادوا “الاعتراف بالعملية لما يحدث”.

وفقًا للاقتراح من DeepMind، فإن عددًا قليلاً من نماذج اللغة الكبيرة، بما في ذلك ChatGPT وGemini، يتأهلون كـ”AGI ناشئ”، لأنهم “متساوون مع الإنسان غير الماهر أو أفضل قليلاً منه” في “مجموعة واسعة من المهام غير الفيزيائية، بما في ذلك المهام ما وراء الإدراكية مثل تعلم مهارات جديدة”. ومع ذلك، حتى هذا التأهيل المُنظم بعناية يترك مجالًا لأسئلة غير محلولة. لا تحدد الورقة ما هي المهام التي ينبغي استخدامها لتقييم قدرات نظام الذكاء الاصطناعي ولا عدد المهام التي تميز نظامًا “ضيقًا” عن نظام “عام”، ولا الطريقة لتحديد معايير المقارنة لمستوى مهارات البشر. تقول موريس إن تحديد المهام الصحيحة لمقارنة مهارات الآلة والبشر يظل “مجالًا نشطًا للبحث”.

ومع ذلك، يقول بعض العلماء إن الإجابة عن هذه الأسئلة وتحديد الاختبارات المناسبة، هو السبيل الوحيد لتقييم ما إذا كانت الآلة ذكية. هنا أيضًا، قد تكون الأساليب الحالية غير كافية. تقول ميتشل إن معايير الذكاء الاصطناعي التي أصبحت شائعة، مثل امتحان SAT، أو امتحان المحاماة أو الاختبارات الموحدة الأخرى للبشر، تفشل في التمييز بين الذكاء الاصطناعي الذي يسترجع بيانات التدريب وذلك الذي يُظهر تعلمًا مرنًا وقدرة. “إعطاء آلة اختبارًا مثل هذا لا يعني بالضرورة أنها ستكون قادرة على الخروج والقيام بالأشياء التي يمكن للبشر القيام بها إذا حصل الإنسان على درجة مشابهة”، تشرح ميتشل.

العواقب العامة

مع محاولة الحكومات تنظيم الذكاء الاصطناعي، تشير بعض استراتيجياتها وسياساتها الرسمية إلى AGI. وتشير ميتشل إلى أن التعريفات المتغيرة يمكن أن تغير كيفية تطبيق تلك السياسات. ويتفق مع ذلك عالم الكمبيوتر في جامعة تمبل، بي وانغ، قائلاً: “إذا حاولت بناء تنظيم يتناسب مع جميع تعريفات AGI، فهذا ببساطة مستحيل”. قد تتغير النتائج الواقعية، من أنواع الأنظمة التي تشملها القوانين الناشئة إلى من يتحمل المسؤولية عن تصرفات تلك الأنظمة “هل هو المطورون، أو جامعو بيانات التدريب، أو الموجه أو الآلة نفسها؟”، بناءً على كيفية فهم المصطلحات، كما يقول وانغ. كل هذا له تداعيات حاسمة على سلامة الذكاء الاصطناعي وإدارة المخاطر.

إذا كان هناك درس شامل يمكن استخلاصه من صعود نماذج اللغة الكبيرة LLMs، فقد يكون أن اللغة قوية. مع كمية كافية من النصوص، من الممكن تدريب نماذج حاسوبية تبدو، على الأقل للبعض، وكأنها أول لمحة عن آلة ذكاؤها ينافس ذكاء البشر. والكلمات التي نختارها لوصف هذا التقدم مهمة.

تُؤكد ميتشل، أستاذة علوم الكمبيوتر في جامعة ستانفورد، أن “المصطلحات التي نستخدمها تؤثر في كيفية تفكيرنا في هذه الأنظمة”. ففي ورشة عمل تاريخية عُقدت في كلية دارتموث عام 1956، والتي تُعتبر بمنزلة بداية أبحاث الذكاء الاصطناعي، ناقش العلماء أسماء مناسبة لمجالهم. وتشير ميتشل إلى أن بعضهم دافع عن مصطلح “الذكاء الاصطناعي”، بينما فضّل آخرون “معالجة المعلومات المعقدة”.

لو تمّت تسمية الذكاء الاصطناعي العام بـ”معالجة المعلومات المعقدة المتقدمة” بدلاً من ذلك، لربَّما كان لدينا نظرة مختلفة تجاهه. فقد نكون أقل عرضة لإضفاء صفات بشرية على الآلات أو الخوف من سيناريوهات نهاية العالم بسبب الذكاء الاصطناعي. وربَّما كان بإمكاننا التوصل إلى تعريف متفق عليه لمفهوم .AGI

 

المصدر: Scientific American

اترك رد

Your email address will not be published.