هل يمكن أن يتخلّق الذكاء الاصطناعي بأخلاق الإنسان؟

29

أبو بكر العيادي

تشهد المرحلة الراهنة تطور الذكاء الاصطناعي تطورا انتقل من أدب الخيال العلمي الاستباقي إلى الواقع الملموس، وصار المتخصصون يتساءلون عن مدى قدرة الآلات على تخير الأحكام المناسبة في وضعيات ما، وكيف نحكم على ما تتخذه من قرارات، وهل يقع الخطأ أو الحادث على عاتق الآلة، أم أنّ المسؤولية تُعزى إلى من برمجها، ما دفع بعضهم إلى التفكير في أسس الإيتيقا، وهل يمكن تطبيقها على الآلة أم على المبرمجين؟

يجد الإنسان نفسه أحيانا حائرا أمام أمرين، أحلاهما مرّ كما يقول أبوفراس، فلا يملك إلا أن يحكّم عقله وما يمليه عليه ضميره في تلك اللحظة لاتّخاذ القرار المناسب في تقديره. ولكن ما الحيلة إذا كان ذلك القرار باطلا في الحالين، منافيا للقيم الإنسانية، كما في فرضية الترامواي التي ابتكرتها الفيلسوفة الأميركية فيليبا فوتْ عام 1967، عن القياس الأقرن (وهو برهان ذو حدّين يُكره المرء على اختيار أحد أمرين كلاهما ليس في مصلحته) في حال ترام مندفع خرج عن السيطرة، ويهم بقتل خمسة عمال لا نجاة لهم إلا إذ حُوّل الترام إلى سكة أخرى، ولكنْ ثمّة عاملٌ آخر سوف يَلقى حتما مصرعه لو يتمّ تحويل مسار الترام. فأي الحلّين نختار؟ نترك العمال الخمسة لمصيرهم، أم نحدد بأنفسنا مصير ذلك العامل؟ ثمّ من يملك الجرأة على اتخاذ قرار سوف يودي بحياة نفس بشرية على الأقل؟

تلك التساؤلات يثيرها الكندي مارتن جيبير، المتخصص في إيتيقا الذكاء الاصطناعي، في كتاب جديد عنوانه “وعظ الروبوتات، مدخل إلى إيتيقا اللوغاريتمات” يقترح فيه تطبيق ما أسماه “إيتيقا فضائل” على اللوغاريتمات، تستند إلى خصال كالتواضع والشجاعة ورحابة الصدر، ولكنه يركز بحثه أساسا على ما يجعل تلك اللوغاريتمات، ومصمّميها، تتّخذ قرارات بعينها دون سواها، لاسيما أنها في جوهرها سلسلة تعليمات تشرح السبيل الواجب اتّباعه لإنجاز عمل ما، ولا علاقة لها بالعواطف والمشاعر، تماما مثل وصفة إعداد أكلة، ننفّذها خطوة خطوة دون أن تراودنا أسئلة إيتيقية.

بيد أن الأمر يختلف إذا عهدنا إلى لوغاريتم مستقل، أو شبه مستقل، بمهمّة لها عواقب على حياة البشر. عندئذ نتحدث عن عوامل أخلاقية مصطنعة، لأن اللوغاريتم في حدّ ذاته لا يملك حرية أن يكون أخلاقيا أو لا أخلاقيّا، لكونه سلسلة متتالية من حالات غير معقدة، ولكن الأشخاص الذين يبرمجونه يَخضعون عن وعي أو غير وعي لجملة من المعايير الأخلاقية، وهنا يكمن المشكل، لأننا في حياتنا اليومية نادرًا ما نفسّر المعايير التي تضبط سلوكنا، فلا نقدّم إلا المعيار الاصطلاحيّ حيث نحترم في بعض الحالات المقننة شروطا ليست من وضعنا، كألعاب الكرة والورق والشطرنج مثلا أو قواعد السلوك القويم. أما المعايير “المحترسة” فهي أكثر ذاتية، لأنها تقوم على مصلحتنا الخاصة، من جهة ميولنا ومطامحنا وحرصنا على ذواتنا.

ولا ينطبق على الجميع سوى نوع ثالث من المعايير، هو المعيار الأخلاقي الذي ينظم حياة البشر في كلّ الحالات، ويهدف إلى المصلحة العامة، فعندما يتبنى المرء وجهة نظر أخلاقية إزاء مشكلة ما، فهو يتنصّل من وضعيته ومصالحه الخاصّة ليعتنق وجهة نظر كونية، لا تميز فردا عن فرد، ولا جماعة عن أخرى، لكونها توافق ما أسماه الفيلسوف الأسترالي بيتر سنغر وجهة النظر الإيتيقية. والشرط فيها أن ينظر المرء إلى المشكل بطريقة محايدة وعادلة يقبلها الجميع.

ولكن إذا وجب على المبرمجين تفسير المعايير الأخلاقية عند تشفير اللوغاريتمات، فماذا يختارون؟ فالحديث عن الصالح العام لا يكفي، لأن الناس يختلفون في تحديده. ولكي يوضح الباحث أبعاد هذا المشكل، يستحضر قياس الترام الأقرن آنف الذكر، ويرى أن أغلب الناس سيختارون الحل الأول تلقائيا لأن مقتل شخص واحد أهون من مقتل خمسة أشخاص، وهي وجهة النظر النفعية التي يتبناها الإنجليزي جيريمي بنثام، لكون الصالح العام الذي يملي معاييرنا الأخلاقية هو في اعتقاده خلاصة سعادة كل فرد.

صورة

غير أن النفعيّ لا يصمد أمام قياس آخر في الفلسفة الإيتيقية هو قياس جسر المشاة، ويتمثل في إنقاذ الأشخاص الخمسة، لا بتحريك رافعة، بل بصفة فعلية مباشرة، وذلك بدفع شخص آخر من فوق الجسر لإجبار الترام على التوقّف. فالنتيجة هي نفسها، (ميت بدل خمسة) ولكن إنجاز العملية يبدو أصعب، والسبب أننا جميعا نملك إحساسا جوهريا تمليه علينا إنسانيتنا، يجعلنا نحترم الوازع الأخلاقي الذي يمنعنا من قتل نفس بغير ذنب. وهو ما دافع عنه إيمانويل كانْت، حين أكد أن ثمة أشياء لا يمكن أن يأتيها عاقل، ولو أصبح الناس يدفعون غيرهم من فوق الجسور لسبب أو لآخر، فلن نخلص أبدا.

هذا التساؤل الذي كان مجرد افتراض جدلي فكري، يتحول اليوم إلى رهان برمجيّ حقيقي، بعد أن دخل الذكاء الاصطناعي حيّز التنفيذ في مجالات عديدة تمسّ حياة الإنسان بشكل مباشر، والقياس الأقرن الجديد يساق عن حالة توشك أن تكون واقعية، وتتمثل في سيارة دون سائق، مزودة بقدرة تحليل قوية، تجد نفسها، إن جاز القول، على أهبة ارتكاب حادث مرور لا مفرّ منه، وتكون أمام أمرين: تدعس طفلا في الطريق أو تتفاداه فتصدم عجوزا على الرّصيف؟ ماذا نقرر في هذه الحالة؟

من بين المقاربات المقترحة توجد الصدفة، أي أن تتمّ برمجة قرار تَعشية (جمع عيّنات بشكل عشوائي، بهدف تثبيت استدلال قائم على عينة اختيرت مثلما اتفق) لتجنّب تحديد قيمة حياة ما في وضعية الحادث الافتراضي تلك، ويستخلص الباحث ألا وجود لعلاقة بين ذكاء كائن، بشري أو غير بشري أي اصطناعي، ولا بين مستوى ذلك الذكاء والغايات التي يروم بلوغها، إذ يمكن أن يوجد ذكاء خارق مع غايات غبية تماما.

 ذلك أن الذكاء الاصطناعي يضعنا أمام حدود الذكاء نفسها، فهل يمكن لروبوت مبرمج لإنتاج مشدّات أن يملأ الكون بمشدات إن كانت تلك مهمته؟ وهل يمكن أن يتحول البشر إلى مادة لصنع المشدات؟ وهل يمنع الذكاء الاصطناعي صانعيه من إيقاف عمله إن كانت تلك الحركة تعطّل علة وجود صناعيّ عنيد؟ ومن ثمّ وجب تصور كلّ الاحتمالات الممكنة حتى وإن كانت غير منطقية. أي أنه ليس من السهل التحكم في ذكاء خارق، لكونه تحديدا يفكر بطريقة أسرع وأبعد مما كان عليه حين صنعه البشر، والسؤال عندئذ: “كيف نتحكّم في شيء يفوقنا ذكاء”؟

صورة

والحلّ في رأي مارتن جيبر أن نهتمّ بإيتيقا اللوغاريتمات، أي أن نغوص في صميم استبصارنا ونظرياتنا الأخلاقية، ونضع أفكارنا المسبقة ومخرجاتنا موضع مساءلة، وأن نستكشف مجالا جديدا في الفلسفة. والباحث يركز على إيتيقا اللوغاريتمات، وهي غير إيتقيا الذكاء الاصطناعي، التي هي فرع من إيتيقا التكنولوجيا، تلك التي تقيّم منظومات الذكاء الاصطناعي لتعرف هل هي صالحة لنا أم لا، وهل ينبغي تطوير سيارات آلية مستقلة وروبوتات عسكرية مثلا، وهل يمكن قبول أي تكنولوجيا حديثة بدعوى أنها قد تكون أكثر فعالية، وما أثر ذلك كله على حياتنا الخاصة، وعلاقاتنا البشرية، والأزمة البيئية، أي أنها تختص بسلوكنا وخياراتنا.

أما إيتيقا اللوغاريتمات فتختص باختيار الآلات التي توضع بين أيدي المبرمجين، والمبادئ الأخلاقية التي ستُغرس في تلك السيارات الآلية والروبوتات العسكرية على سبيل المثال. وإذا كانت المسألة معقدة فلأن الروبوتات مستقلة في جانب منها، ما يحتّم استباق الوضعيات التي ستواجهها، والتكهن بالكيفية التي ستتصرف بها أمام المجهول أو الطارئ، ولا مناص عندئذ من برمجة الروبوتات بطريقة أخلاقية، أي إخضاعها لمعايير معينة. ومن ثمّ، يدعو الباحث إلى ما يسميه “انتصار الفضائل”، أي جعل الروبوتات تتصرف تصرّفَ إنسان فاضل، وبذلك يضع في صميم تساؤلات إيتيقية معاصرة المفهوم الأرسطي للفرونيزيس، الذي يترجم عادة بالحكمة التطبيقية، ويدعو إلى اختيار الأمثلة الطيبة لصنع روبوتات طيّبة، مستعيرا بعض المصطلحات من الأميركية شانّون فالّور، فيلسوفة التقنيات المعاصرة، التي تقترح تعزيز اللوغاريتمات بـ”تقنيات أخلاقية” كالأمانة والتواضع والشجاعة ورحابة الصدر.

اترك رد

Your email address will not be published.