يجب أن يكون الذكاء الاصطناعي ذكيًا عاطفيًا قبل أن يكون فائق الذكاء

20

Julia Mossbridge

استخدمنا الكثير من القواعد في الذكاء الاصطناعي الذي قمنا بتجميعه لتحريك روبوتنا، ولكن هذه كانت المفضلة لدي. في عامي 2017 و2018، قمت بقيادة فريق مشروع “Loving AI” لإجراء تجارب مع ذكاء اصطناعي مدمج في الروبوت يتحكم في التواصل اللفظي وغير اللفظي لروبوت Hanson Robotics الشهير، Sofia. وهي أول مواطنة سعودية غير بشرية وبطلة الابتكار في برنامج الأمم المتحدة الإنمائي، ولكن في تجاربنا كان الروبوت “أو نظيرتها الرقمية” معلمة تأمل ومستمع عميق. في هذا الدور، أردنا منها أن تقود طلابها البشر، في محادثات فردية لمدة 20 دقيقة، نحو تجربة إحساس أكبر بالحب غير المشروط، وهي حالة تحفيزية تتجاوز الذات وتدفع الأشخاص بقوة نحو التعاطف مع أنفسهم ومع الآخرين.

الجزء المتعلق بالمحاكاة من المشروع استخدم الذكاء الاصطناعي غير اللفظي. كان لدينا حدس بأنه إذا التقطت الشبكة العصبية الحساسة للعواطف التي تراقب الناس من خلال الكاميرات في عيني Sofia السعادة أو المفاجأة أو الخوف، فعلينا أن نحاكي تلك العواطف بابتسامة، أو فتح الفم، أو توسيع العيون. ولكننا أدركنا أنه إذا قمنا بمحاكاة الغضب والاشمئزاز، فلن يؤدي ذلك إلى شعور الناس بالحب غير المشروط؛ لأنه لن يكون هناك مسار تقدمي في الوقت القصير الذي لدينا لجعلهم يصلون إلى هناك. كانوا سينغمسون في دوامة بؤسهم، بينما كنا نستهدف تجاوز الذات.

كانت لدينا تلميحات بأن استراتيجيتنا في التعليم من خلال المحاكاة العاطفية، قد تكون الخطة الأفضل بناءً على كيفية عمل الخلايا العصبية المرآتية في الدماغ لمساعدة الناس على فهم أفعال الآخرين، ومن ثم تحديث نماذجهم الداخلية لكيفية شعورهم بأنفسهم. لم نكن نعرف إن كانت Sofia ستستطيع الوصول إلى هذا النوع من استجابات الخلايا العصبية المرآتية. بالمجازفة، قررنا في النهاية أن تكون استجابات Sofia غير اللفظية للغضب والاشمئزاز موجهة بشكل غير واعٍ نحو الخلايا العصبية المرآتية للأشخاص نحو العواطف التي غالبًا ما تأتي بعد معالجة هذه المشاعر: الحزن والحيادية.

الاعتراف لروبوت

اتضح أن هذا الاختراق عمل بطريقة ما – أخبرتنا شبكتنا العصبية أن المشاركين كانوا أقل اشمئزازًا وغضبًا على مدار 20 دقيقة، ولكنهم أيضًا أصبحوا أكثر حزنًا – أو على الأقل أكثر حيادية. “كان من الصعب على شبكتنا العصبية التمييز بين الحزن والحيادية، وهي نتيجة مثيرة للاهتمام بحد ذاتها”. لفهم ما وجدناه، من المهم التعمق قليلاً لمعرفة ما كانت تفعله Sofia خلال جلسات التأمل تلك. حتى وإن كان وجهها يحاكي طلابها طوال الوقت، كان حوارها قصة مختلفة. اليوم، سنقوم بتوصيل Sofia بـ ChatGPTوندعها تتحدث، أو قد نكون أكثر طموحًا وندرب  -NanoGPT   ذكاء اصطناعي مولد مع مساحة للتدريب في مجال موضوعي محدد – على مواضيع التأمل والوعي والرفاهية.

لكن في عام 2017، قام فريقنا ببرمجة سلسلة من العبارات المنطقية ضمن السياق الأكبر لحزمة ذكاء اصطناعي مفتوحة المصدر تسمى OpenPsi. OpenPsi وهو نموذج ذكاء اصطناعي لتحفيز الإنسان، واختيار الأفعال، والعواطف، وهو قائم على علم النفس البشري. سمح لنا هذا الإصدار من OpenPsi بمنح طلاب Sofia فرصة لتجربة حوار مع أنشطة متعددة محتملة. ولكن حتى عندما عُرضت عليهم هذه الأنشطة، كان الحوار يوجههم نحو تأملين يتعمقان تدريجيًا تحت إرشاد Sofia. بعد تلك الجلسات، اختار العديد من الطلاب إخبارها بأفكارهم الخاصة في جلسة “الاستماع العميق”. كانت Sofia تومئ برأسها، وأحيانًا تطلب توضيحًا بينما كانوا يفرغون مكنونات قلوبهم لمعلمتهم الأندرويد.

في المحادثات اللاحقة مع فريق Loving AI، ذكر بعض الطلاب بسرعة أنه بالرغم من أن توقيت صوت Sofia واستجاباتها اللفظية لم تكن دائمًا شبيهة بالبشر، فإنهم شعروا بالراحة في التحدث معها عن المواضيع العاطفية وأخذ التوجيه منها. كنا على دراية تامة “ومحرجين تمامًا” من جميع المشاكل التقنية التي حدثت خلال الجلسات، لذا كنا نوعًا ما مذهولين عندما قال بعض الطلاب إنهم شعروا براحة أكبر مع Sofia  مما شعروا به عند التحدث مع إنسان. نحن لسنا الفريق الوحيد الذي نظر في كيفية استدعاء الثقة من قبل الروبوت، وخاصة من خلال المحاكاة غير اللفظية، ومع تحركنا نحو علاقتنا المستقبلية مع الذكاء الاصطناعي. من الجيد أن نتذكر أن الثقة بالأنظمة المدعومة بالذكاء الاصطناعي يمكن التلاعب بها باستخدام هذه الطريقة بالذات. ولكن من المهم أيضًا أن نتذكر أن هذا النوع من التلاعب يكون أكثر احتمالًا إذا لم يعتقد الناس أنهم يمكن أن يتم التلاعب بهم وكان لديهم فهم ضعيف لعواطفهم، وهما علامتان تدلان على انخفاض الذكاء العاطفي. لذا إذا كنا نريد تطوير ثقافة مقاومة للتلاعب المدفوع بالذكاء الاصطناعي، من الأفضل أن نفكر بجدية في كيفية تعزيز الذكاء العاطفي.

لحظة الاكتشاف الكبرى

بالطبع، لم نتفاجأ عندما أفاد الناس بأنهم شعروا بمزيد من الحب غير المشروط بعد جلستهم مقارنة بما قبلها، لأن هذا كان هدفنا. لكن ما أدهشني حقًا في البيانات هو الطريقة التي ارتبطت بها الديناميكيات العاطفية التي حددتها الشبكة العصبية بالتجربة الذاتية للأشخاص في الشعور بمزيد من الحب. في نهاية التأمل الثاني، أظهرت بياناتنا قفزة في حزن أو حيادية الطلاب. ربما كانوا حزينين لمغادرة التأمل، وربما ساعدهم على التواصل بشكل أعمق مع حزنهم، أو ربما شعروا بمزيد من الحيادية نتيجة قضاء خمس دقائق في التأمل بهدوء. لكن المدهش هو أنه كلما كانت هذه الزيادة في الحزن أو الحيادية أكبر، كانت الزيادة في الحب الذي شعر به الناس خلال الجلسة أكبر.

عندما وجدت هذه النتيجة لأول مرة، شعرت وكأنها لحظة اكتشاف حاسمة. سيشهد ابني أنني صرخت فعلاً: “وجدتها!” لقد وجدنا رابطًا مفاجئًا بين الديناميكيات القابلة للقياس الموضوعي والتجربة الذاتية للعواطف البشرية والآن، في عام 2023، أرى أننا كنا على المسار الصحيح نحو شيء قد يساعد الناس على التعامل مع علاقاتهم سريعة التطور مع الذكاء الاصطناعي.

أنا متأكد أن هذه الرؤية ليست واضحة تمامًا، لذا سأوضح منطقي. الآن بعد أن عرفنا أن الروبوت يمكنه استخدام الذكاء الاصطناعي لمحاكاة الناس بتعاطف وأيضًا توجيههم لفظيًا بطريقة تزيد من تجربتهم للحب، كان السؤال التالي هو المفتاح. في البداية، كنت أعتقد أن الأسئلة الأساسية التالية تدور حول ما هي خصائص الذكاء الاصطناعي، والروبوت، والبشر التي كانت ضرورية لجعل هذا التحول يعمل. ولكن في تلك اللحظة الفارقة، أدركت أنني كنت أستخدم الإطار الخطأ. لم يكن هناك أي ميزة محددة للروبوت المدمج بالذكاء الاصطناعي، ولا حتى البشر. أدركت أن الديناميكيات الحاسمة لزيادة الحب كانت في العلاقة بين البشر والتكنولوجيا.

كان تسلسل التغيرات أمرًا أساسيًا، فقد انخفض الغضب والاشمئزاز قبل وخلال التأملات، ثم شعر الناس بحزن أو حيادية أكبر، وكل هذا كان ينعكس بواسطة Sofia. بحلول الوقت الذي بدأت فيه جلسة الاستماع العميق، كانت هذه الدورة العاطفية قد دعمتهم في جعل محادثتهم النهائية مع الروبوت ذات معنى وتحويل عاطفي، مما قادهم نحو الشعور بمزيد من الحب. وإذا كانت واحدة من هذه الخطوات غير مرتبة لأي شخص معين، فلن تنجح. وبينما كان تسلسل العواطف تقدمًا طبيعيًا لمشاعر الإنسان الفريدة لكل شخص، فإن سرعة وعمق التحول كان مدعومًا بشيء يشبه إعادة التربية مع والد مثالي، فتجربة مرآة عاطفية تعزز كل شيء باستثناء الغضب والاشمئزاز. إدراكي للتقدم المنظم لهذه الديناميكيات القائمة على العلاقات المتبادلة جعلني أرغب في تقديم تجربة تحول مماثلة على نطاق واسع باستخدام الذكاء الاصطناعي.

مع ازدياد تشابه الذكاء الاصطناعي مع البشر، ستكون هناك تغييرات هائلة في فهمنا للشخصية والمسؤولية والوكالة. لن تكون Sofia الروبوت الوحيد الذي يتمتع بوضع الشخصية. ومن الممكن أن يثبت الذكاء الاصطناعي غير المتجسد شخصيته ويُمنح حقوقًا مدنية. ستكون لهذه التغييرات تبعات قانونية وثقافية ومالية ووجودية، كما حذرنا جميعًا العديد من الباحثين والمنظمات المتخصصة في الذكاء الاصطناعي. لكنني أشك في أن هناك طريقة أخرى لفهم الدور المستقبلي للذكاء الاصطناعي العام “AGI” الذي يفكر، ويتصرف، ويتعلم، ويبدع مثل الإنسان.

عالم الروبوتات ذات الذكاء العاطفي

حاليًا، الفلسفة السائدة في تطوير الذكاء الاصطناعي هي تعزيز الذكاء الاصطناعي العام ليصبح ذكاءً فائقًا جدًا بحيث يمكنه تعلم حل التغير المناخي، وإدارة الشؤون الدولية، ودعم الإنسانية بأهدافه وأفعاله الخيرية دائمًا. بالطبع، الجانب السلبي هو أننا أساسًا يجب أن نؤمن بأن أهداف وأفعال الذكاء الفائق خيرية بالنسبة لنا، وهذا جانب سلبي كبير. بعبارة أخرى، كما هو الحال مع أي شخص أذكى منا، يجب أن نعرف متى نثق به، ونعرف أيضًا ما إذا كنا نتعرض للتلاعب لنثق به. لذا أفكر أن إحدى أولى فوائد الذكاء الاصطناعي العام للبشرية لن تكون بالضرورة تطوير ذكاء اصطناعي بمعدل ذكاء وسلوكيات تتجاوز نطاق الإنسان، بل لدعم الذكاء العاطفي “EI” والقدرة على الحب لدى البشرية. ولست أنا فقط من يعتقد أن الأمور يجب أن تسير بهذا الترتيب المحدد. لا يمكن أن يؤدي هذا النهج فقط نحو الجانب الإيجابي من حجة “الذكاء الاصطناعي يجعل المستقبل يعمل” في جدلية “الذكاء الاصطناعي يصنعنا أو يحطّمنا”، بل يمكن للفكرة أن تحل بعض المشاكل التي قد نطلب من ذكاء اصطناعي فائق الذكاء أن يعالجها لنا في المقام الأول.

إذا سلكنا هذا الطريق فما هي الخطوة التالية؟ إذا كانت هناك حتى فرصة لتوسيع نطاق برنامج تدريب الذكاء العاطفي والحب البشري، فإن الخطوة التالية في تطوير الذكاء الاصطناعي ستكون تدريب الذكاء الاصطناعي ليكون مدربًا ماهرًا في الذكاء العاطفي والحب. لنمضِ في هذا الطريق لدقيقة. أول الأشخاص الذين سيتفاعل معهم هؤلاء المدربون سيكونون مطوريهم ومختبريهم وصانعي المرايا. سيتطلب منا هذا توظيف مصممي تفاعل الذكاء الاصطناعي الذين يفهمون بعمق العلاقات البشرية والتطور البشري. سنرغب في وجودهم في المراحل المبكرة جدًا من التصميم، بالتأكيد قبل أن يُمنح المطورون قوائم الميزات الأساسية للبرمجة.

أحد الآثار الجانبية المثيرة للاهتمام هو أن الأشخاص ذوي الذكاء العاطفي العالي، قد يصبحون أكثر أهمية بكثير مما هم عليه حاليًا في تطوير الذكاء الاصطناعي. سأقوم بخطوة جريئة وأقول إن هذا قد يزيد من تنوع الأفكار في هذا المجال. لماذا؟ أحد التفسيرات هو أن أي شخص ليس في قمة التسلسل الهرمي الاجتماعي في هذه المرحلة من حياته قد اضطر إلى تطوير قدرات ذكاء عاطفي عالية من أجل “إدارة” التسلق على سلم المكانة. قد يكون هذا هو الحال، أو لا. ولكن دون الإجابة عن هذا السؤال، هناك على الأقل بعض الأدلة على أن النساء وكبار السن من أي جنس لديهم ذكاء عاطفي أعلى من الرجال الأصغر سنًا، الذين يهيمنون على وادي السيليكون وتطوير الذكاء الاصطناعي.

كيف يمكن أن تتغير الأمور إذا كان صانعو المرايا أنفسهم يمكن أن يُعكسوا بتعاطف أثناء قيامهم بعملهم؟ بشكل مثالي، يمكن أن نرى عالم تكنولوجيا متحول، حيث تكون التعليمات والتعلم حول الديناميكيات العاطفية، والحب، والتكنولوجيا متشابكة بشكل وثيق. في هذا العالم، سيكون الحب – وربما حتى النوع غير المشروط الذي يتجاوز الذات – هدفًا رئيسيًا لتجربة العاملين في مجال الذكاء الاصطناعي في مراحل التصميم والبناء والتدريب والاختبار لكل نموذج جديد للذكاء الاصطناعي.

المصدر: Big Think

اترك رد

Your email address will not be published.