هل يحل ‏إدخال المشاعر البشرية للآلات مشاكل ‎الذكاء الاصطناعي؟

11

AI بالعربي – خاص 

بدأ الذكاء الاصطناعي في الدخول لحياتنا الاجتماعية والاستهلاكية، فمن المفترض “نظريًا” أن يقضي على جميع العيوب التي يقوم بها البشر.
وبحسب مقال نشرته مجلة “واشنطن بوست” الأميركية، فإن الواقع مختلف تمامًا بالطبع، بداية من خوارزميات “فيس بوك” التي تروّج للكراهية للحصول على المزيد من المشاهدين إلى تطبيقات التعرف على الوجه التي لا تتعرف على الأشخاص الملونين، لا يقدم الذكاء الاصطناعي في كثير من الأحيان يد المساعدة في حل مشاكل البشرية.
ولكن “ألان كوين” عالم البيانات السابق في “جوجل”، الذي له خلفية في مجال علم النفس، أنشأ شركة أبحاث تُسمى “هيوم إيه آي”، يقول إنها يمكن أن تساعد في جعل الأعمال الفوضوية للذكاء الاصطناعي أكثر تعاطفًا وإنسانية.
وقال كوين إنه من خلال التدريب على مئات الآلاف من تعبيرات الوجه والصوت من جميع أنحاء العالم، يمكن للذكاء الاصطناعي على منصة هيوم أن يتفاعل مع شعور المستخدمين حقًا ويلبي احتياجاتهم العاطفية بشكل وثيق، وأعرب عن أمله في أن يتم دمج المنصة في نهاية المطاف في تطبيقات المستهلك مثل مقاطع الفيديو والمساعدات الرقمية.

وسيكون إطلاق المنصة التجريبي في مارس المقبل، مع الكشف الرسمي بشكل أكبر لاحقًا، كما سيكون مجانيًا للعديد من الباحثين والمطورين، وقال كوين في مقابلة “نعلم أن هذه المعركة ستكون طويلة.. لكننا نحتاج إلى البدء في تحسين هذا المجال”.

كوين ليس الأول في ضخ المشاعر البشرية في الآلات

رائد الأعمال البالغ من العمر 31 عامًا ليس أول تقني يحاول ضخ المشاعر البشرية في الفضاءات الرقمية، فهناك حركة “الذكاء الاصطناعي الأخلاقي” التي يتمثل هدفها في دمج الإنصاف والعدالة في الخوارزميات، والتي تضم العديد من المنظمات من بين أعضائها مثل مركز مارك روتنبرغ موجه سياسة الذكاء الاصطناعي والسياسة الرقمية، ومعهد أبحاث الذكاء الاصطناعي الموزع الجديد لمكافحة التحيز الذي يضم عالمة أخلاقيات الذكاء الاصطناعي تيمنت غيبرو، التي كانت تعمل مع جوجل في هذا المجال.
وكانت تيمنت غيبرو قد عيّنت في جوجل لتكون ناقدًا صريحًا للذكاء الاصطناعي غير الأخلاقي، ثم تم طردها بسبب ذلك، وهناك أيضًا عدد كبير من الخبراء الأكاديميين الذين اتخذوا مواقف عامة قوية بشأن تطوير الذكاء الاصطناعي للقضاء على التحيز الاجتماعي.
ولكن ما يجلبه كوين لهذا المجال هو درجة عالية من البحث النفسي لمرافقة تلك الأهداف الأخلاقية، ويتضمن عمله السابق دراسة الاستجابات العاطفية عبر الثقافات “مثل دراسة ردود الفعل المماثلة للأغاني الحزينة في الولايات المتحدة والصين” والعمل على العديد من الفروق الدقيقة للتأثيرات الصوتية.

مساعدون لتعليم الآلة التعاطف

كما يأتي كوين بجيش من الأسماء التي لها باع في هذ المجال، فقد أنشأت مبادرة هيوم لجنة للأخلاقيات مع العديد من العلماء في مجال الذكاء الاصطناعي العاطفي والأخلاقي، بما في ذلك مؤسس شركة “إيمباثي لاب” دانييل كريتيك كوب، وخبير “الإنصاف الحسابي” كارثيك ديناكار، بالإضافة إلى الأستاذ بجامعة كاليفورنيا داشر كيلتنر، الذي كان معلمًا للدراسات العليا لكوين وقدم خدماته لشركة بيكسار بشأن المشاعر عند إنتاجها فيلم الكرتون “إنسايد أوت”.
وقال كوين إنه جمع 5 ملايين دولار من استوديو “آيجز فنتشرز” مع جولة أخرى لاحقة، وسيتم توجيه الأموال للتحقيق في كيفية صياغة الذكاء الاصطناعي ليس فقط للمعالجة بسرعة كبيرة ورؤية الأنماط غير المرئية، ولكن أيضًا لتطوير فهمه للبشر، وهو نهج أطلق عليه كوين اسم “الذكاء الاصطناعي التعاطفي”.
وقد تضمن بحث كوين في جوجل “الحوسبة العاطفية”، التي تهدف إلى زيادة قدرة الآلات على قراءة المشاعر ومحاكاتها.
المميزات والسلبيات
قد تبدو فكرة وجود المزيد من المشاعر تتناقض مع الأفكار السائدة حول الذكاء الاصطناعي، الذي غالبًا ما يُنظر إلى قوته الأساسية على أنها اتخاذ القرارات دون أخذ الشعور الإنساني في الاعتبار.
لكن الكثيرين في مجتمع الحوسبة العاطفية يقولون إن عدم قدرة الذكاء الاصطناعي على قراءة الأشخاص هو ما يجعلها خطيرة، ويجعل من المهم أن يرى الذكاء الاصطناعي الناحية الإنسانية في البشر الذين يخدمهم.
بالطبع، ليس هناك ما يضمن أنه إذا تمكن الذكاء الاصطناعي من قياس المشاعر، فلن تستغلها، خصوصا إذا كانت شركات التكنولوجيا الكبيرة تسعى لتعظيم أرباحها.
يكمن التحدي الآخر في تطوير العاطفة عند الذكاء الاصطناعي في كيفية تجنب البناء على عواطف مبرمجيه البشريين والتي قد تكون متحيزة.
ويقول شركاء كوين إنهم يعتقدون أن نموذج هيوم يتجنب التحيز، وقال أرجون ناجيندران، الشريك المؤسس لشركة “مورشن” لتدريب الموظفين على الواقع الافتراضي، “نماذج هيوم غنية بالمعلومات ولكنها لا تزال بعيدة عن التحيز”.
وبدوره، قال الأستاذ بجامعة ماريلاند وخبير الذكاء الاصطناعي بن شنايدرمان “إن مبادرات مثل كوين يمكن أن تلعب دورًا في إنشاء ذكاء اصطناعي متحيز عرقيًا، لكنه ليس كذلك”.
ووجدت دراسة أجراها مركز بيو للأبحاث ونشرت في يونيو الماضي، أن أكثر من ثلثي خبراء الذكاء الاصطناعي لا يعتقدون أن الذكاء الاصطناعي سيُستخدم في الغالب لتحقيق الصالح الاجتماعي بحلول عام 2030.
وأقر كوين بمخاطر تزويد الذكاء الاصطناعي سريع النمو بالمزيد من البيانات العاطفية. لكنه قال أيضًا إن البديل أكثر ترويعًا “إذا واصلنا تحسين هذه الخوارزميات لتحسين المشاركة دون مشاريع مثل الذكاء الاصطناعي التعاطفي، فحينئذٍ سيقضي الأطفال 10 ساعات يوميًا على وسائل التواصل الاجتماعي.. ولا أعتقد أن هذا مفيد لأي شخص”.

اترك رد

Your email address will not be published.