تقنيات الذكاء الاصطناعي وتحديات اتخاذ القرار
د. صلاح عثمان
تُعد أخلاقيات الآلة Machine Ethics جزءًا من أخلاقيات الذكاء الاصطناعي المعنية بإضافة أو ضمان السلوكيات الأخلاقية للآلات التي صنعها الإنسان، والتي تستخدم الذكاء الاصطناعي، وهي تختلف عن المجالات الأخلاقية الأخرى المتعلقة بالهندسة والتكنولوجيا، فلا ينبغي الخلط مثلاً بين أخلاقيات الآلة وأخلاقيات الحاسوب، إذ تركز هذه الأخيرة على القضايا الأخلاقية المرتبطة باستخدام الإنسان لأجهزة الحاسوب؛ كما يجب أيضًا تمييز مجال أخلاقيات الآلة عن فلسفة التكنولوجيا، والتي تهتم بالمقاربات الإبستمولوجية والأنطولوجية والأخلاقية، والتأثيرات الاجتماعية والاقتصادية والسياسية الكبرى، للممارسات التكنولوجية على تنوعها؛ أما أخلاقيات الآلة فتعني بضمان أن سلوك الآلات تجاه المستخدمين من البشر، وربما تجاه الآلات الأخرى أيضًا، مقبول أخلاقيًا. الأخلاقيات التي نعنيها هنا إذن هي أخلاقيات يجب أن تتحلى بها الآلات كأشياء، وليس البشر كمصنعين ومستخدمين لهذه الآلات!
بعبارة أخرى نستطيع القول إن الهدف النهائي للبحث في أخلاقيات الآلة هو تصميم آلة ذكية (وكيل اصطناعي Artificial Agent) تتبع مبدأ أخلاقيًا مثاليًا أو مجموعة من المبادئ؛ أي تسترشد بهذا المبدأ أو بهذه المبادئ في القرارات التي تتخذها حول مسارات العمل التي يمكن أن تسلكها. ولعلنا هنا بحاجة إلى التمييز بين ما يُمكن أن نسميه «وكيل أخلاقي ضمني» Implicit ethical agent، و«وكيل أخلاقي صريح» Explicit ethical agent؛ فالآلة التي تمثل وكيلاً أخلاقيًا ضمنيًا هي تلك التي تمت برمجتها للتصرف بشكلٍ أخلاقي، أو على الأقل لتجنب السلوك غير الأخلاقي، دون تمثيل صريح للمبادئ الأخلاقية. بمعنى أنها مقيدة في سلوكها – من قبل مصممها – باتباع مبادئ أخلاقية معينة. أما الآلة التي تمثل وكيلاً أخلاقيًا صريحًا فهي تلك التي لديها القدرة على تحديد أفضل إجراء يمكن أن تقوم به وفقًا للمبادئ الأخلاقية، أي أنها يمكن أن تُمثل الأخلاق صراحةً، ومن ثم تعمل بشكلٍ فعال على أساس هذه المعرفة من تلقاء نفسها. ولعل التحدي الأكبر الذي يُواجه كافة العاملين في مجال أخلاقيات الآلة، ليس هو تصميم الآلة الذكية في حد ذاتها، وإنما تحديد ما يُمكن أن نُعده سلوكًا أخلاقيًا يتفق عليه الجميع، وتلك مهمة صعبة نظرًا لتعدد الرؤى والنظريات الأخلاقية.
قبل القرن الحادي والعشرين، كانت أخلاقيات الآلات موضوعًا لأدب الخيال العلمي إلى حد كبير، ويرجع ذلك أساسًا إلى قيود الحوسبة والذكاء الاصطناعي، وإن كان تعريف «أخلاقيات الآلة» قد تطور منذ الربع الأخير من القرن العشرين، حيث صاغ الفيزيائي الأمريكي «ميتشل والدروب» Mitchell Waldrop هذا المصطلح في مقال له بمجلة «الذكاء الاصطناعي» AI Magazine سنة 1987 تحت عنوان «سؤال عن المسؤولية» A Question of Responsibility، وكتب قائلاً:
«وعلى أية حال، ثمة شيءٌ واحد واضح من المناقشة أعلاه، مؤداه أن الآلات الذكية ستُجسد القيم والافتراضات والمقاصد، سواء أراد المبرمجون ذلك أم لا، وسواء أكان لديهم وعيٌ بذلك أم لا. وهكذا، عندما تصبح أجهزة الحاسوب والروبوتات أكثر ذكاءً، سيغدو من الضروري أن نفكر مليًا وبصراحةٍ ووضوح في ماهية تلك القيم المضمنة. لعل ما نحتاج إليه، في الواقع، هو نظرية وممارسة لأخلاقيات الآلة، وفقًا لروح قوانين أسيموف الثلاثة للروبوتات».
ومن المعروف أن قوانين أسيموف الثلاثة للروبوتات Three Laws of Robotics هي مجموعة من القوانين المُقترحة لكي يلتزم بها الإنسان الآلي. وقد ظهرت هذه القوانين للمرة الأولى سنة 1942 في إحدى روايات الخيال العلمي، وهي رواية «التملص» Runaround لكاتب روايات الخيال العلمي الأمريكي «إسحاق أسيموف» Isaac Asimov (1920 – 1992)، وجاءت على النحو التالي:
1. لا يجوز لآلي إيذاء بشريّ أو السكوت عما قد يسبب له الأذى.
2. يجب على الآلي إطاعة أوامر البشر إلا إن تعارضت مع القانون الأول.
3. يجب على الآلي المحافظة على بقائه طالما لا يتعارض ذلك مع القانونين الأول والثاني.
ثم أضاف لها «أسيموف» فيما بعد القانون «صفر»، ومنطوقه: لا ينبغي لأي روبوت أن يؤذي الإنسانية، أو أن يسمح للإنسانية بإيذاء نفسها بعدم القيام بأي رد فعل.
لم تكن مسرحية «التملص» أولى روايات الخيال العلمي في هذا الصدد، فقد سبقتها مثلاً سنة 1920 مسرحية «روبوتات روسوم العالمية» Rossumovi Univerzální Roboti (RUR) للكاتب التشيكي «كارل تشابيك» Karel Čapek (1890 – 1938)، وهي المسرحية التي قدمت كلمة «روبوت» Robot لأول مرة في اللغة الإنجليزية، وأثارت في الأذهان (بعد عرضها في الخامس والعشرين من يناير سنة 1921) فكرة إمكانية هيمنة الروبوتات بعد تمردها على الجنس البشري والقضاء عليه. وفي سنة 1968، قدَّم الكاتب البريطاني «آرثر كلارك» Arthur Clarke (1917 – 2008) رواية «ملحمة الفضاء» (أو «أوديسا الفضاء» A Space Odyssey)، التي تخيل فيها حاسوبًا خوارزميًا له القدر على اتخاذ القرار (أطلق عليه اسم «هال 9000» HAL 9000 Computer)، يتحكم في أنظمة إحدى مركبات الفضاء ويقود انقلابًا يؤدي على القضاء على طاقمها! وعلى خلفية هذه الهواجس والمخاوف التي طرحتها روايات الخيال العلمي، نشر مهندس الكمبيوتر الأمريكي «وليام نيلسون جوي» William Nelson Joy (من مواليد سنة 1954) مقالاً في عدد أبريل 2000 من مجلة «وايرد» Wired تحت عنوان «لماذا لا يحتاجنا المستقبل؟» Why The Future Doesn’t Need Us?، ذهب فيه إلى أقوى تقنياتنا في القرن الحادي والعشرين: الروبوتات، والهندسة الوراثية، وتكنولوجيا النانو Nanotechnology، من شأنها أن تجعل البشر من الأنواع المهددة بالانقراض، وأن السبيل الوحيد لتجنب هذا المصير هو التخلي عن التقنيات الخطرة، وحث العلماء على رفض العمل على تطويرها! ولئن كان هذا مُستبعدًا، فلعل البحث في أخلاقيات الآلة يُقدم حلاً أكثر واقعية وقابلية للتطبيق!
في سنة 2004، قامت «جمعية النهوض بالذكاء الاصطناعي» AAAI (وهي جمعية علمية دولية مكرسة لتعزيز البحث في الذكاء الاصطناعي والاستخدام المسؤول له، تم تأسيسها سنة 1979) بتنظيم ورشة عمل تحت عنوان «نحو أخلاقيات الآلة» Towards Machine Ethics، وتم فيها وضع الأسس النظرية لأخلاقيات الآلة. كما عقدت الجمعية ذاتها سنة 2005 ندوة حول أخلاقيات الآلة التقى فيها باحثون من أقطار مختلفة للنظر في تنفيذ البًعد الأخلاقي للأنظمة المستقلة Autonomous Systems. وفي سنة 2007 نشرت «مجلة الذكاء الاصطناعي» AI Magazine مقالاً لكل من «مايكل أندرسون» Michael Anderson (أستاذ علوم الحاسوب بجامعة هارتفورد Hartford الأمريكية) و«سوزان لي أندرسون» Susan Leigh Anderson، (أستاذة التفكير الناقد والأخلاق التطبيقية بجامعة كونيتيكت Connecticut الأمريكية) تحت عنوان «أخلاقيات الآلة: إنشاء وكيل ذكي أخلاقي» Machine Ethics: Creating an Ethical Intelligent Agent، وفيه ناقش الباحثان أهمية أخلاقيات الآلة، والحاجة إلى الآلات التي تمثل المبادئ الأخلاقية صراحةً، والتحديات التي تواجه أولئك الذين يعملون على تطوير أخلاقيات الآلة. كما أظهرا أنه من الممكن لآلةٍ ما – على الأقل في مجال محدود – أن تُجرد مبدأ أخلاقيًا من أمثلة الأحكام الأخلاقية، وأن تستخدم هذا المبدأ لتوجيه سلوكها.
أما أول كتاب عن أخلاقيات الآلة فقد نشرته مطبعة جامعة أكسفورد سنة 2009، تحت عنوان «الآلات الأخلاقية: تعليم الروبوتات الصواب من الخطأ» Moral Machines: Teaching Robots Right from Wrong، وهو تأليف مشترك لكل من «ويندل والاش» Wendell Wallach و«كولين ألين» Colin Allen، وهو أول عمل يفحص التحدي المتمثل في بناء آلات أخلاقية اصطناعية، ويتعمق في طبيعة صنع القرار البشري وأبعاده الأخلاقية. وقد استشهد فيه المؤلفان بحوالي 450 مصدرًا، وطرحا ما يقرب من مائة سؤال رئيس حول أخلاقيات الآلة، ولفتا أنظار الباحثين وصانعي السياسات والممولين إلى أن عدد أعضاء البيئة التي يصنعها الإنسان بواسطة آلات قادرة – من خلال خوارزميات الذكاء الاصطناعي – على التصرف بشكل مستقل، يزداد بشكلٍ غير مسبوق، وأن الخوارزميات التي تتحكم في سلوك هذه الأنظمة المستقلة حتى الآن «عمياء أخلاقيًا» Ethically blind، بمعنى أن قدرات اتخاذ القرار لهذه الأنظمة لا تنطوي على أي تفكير أخلاقي واضح، ومن ثم تبدو الحاجة مُلحة إلى أن تصبح هذه الأنظمة المستقلة بشكل متزايد (الروبوتات وبرمجيات الروبوت) قادرة على مراعاة الاعتبارات الأخلاقية في عملية صنع القرار.
من جهة أخرى، أعلن مكتب الولايات المتحدة للبحوث البحرية سنة 2014 أنه سيوزع 7.5 مليون دولار في شكل منح على مدى خمس سنوات للباحثين الجامعيين لدراسة مسائل أخلاقيات الآلة كما هي مطبقة على الروبوتات المستقلة. وفي سنة 2016 نشر البرلمان الأوروبي ورقة من 22 صفحة لتشجيع المفوضية الأوربية على معالجة مسألة الوضع القانوني للروبوتات. وقد تضمنت الورقة أقسامًا تتعلق بالمسؤوليات القانونية للروبوتات، حيث تمت مناقشة الالتزامات على أنها تتناسب مع مستوى استقلالية الروبوتات. كما أثارت الورقة أيضًا تساؤلات حول عدد الوظائف التي يمكن أن تحل محلها روبوتات الذكاء الاصطناعي.
وبصفته باحثًا موسوعيًا في دراسات فلسفة الذكاء الاصطناعي، وفلسفة العقل، وفلسفة العلم والمنطق، «يصف جيمس مور» James H. Moor (وهو أحد المنظرين الرائدين في مجال أخلاقيات الحاسوب بالولايات المتحدة) أربعة أنواع من الروبوتات الأخلاقية، وهي:
1. وكلاء التأثير الأخلاقي Ethical impact agents: وهي أنظمة آلية لها تأثير أخلاقي سواء أكان مقصودًا أم لا، ولديها في الوقت ذاته القدرة على التصرف بشكل غير أخلاقي. يعطي مور مثالاً افتراضيًا يُطلق عليه اسم «وكيل جودمان» Goodman agent (نسبة إلى الفيلسوف الأمريكي «نيلسون جودمان»). يقارن «وكيل جودمان» التواريخ ولكن لديه خطأ ناجم عن قيام المبرمجين بتمثيل التواريخ باستخدام آخر رقمين فقط من العام، وبالتالي فإن أية تواريخ بعد سنة 2000 سيتم التعامل معها بشكل مضلل على أنها أقدم من تلك التي كانت في أواخر القرن العشرين. وهكذا يُصبح «وكيل جودمان» بمثابة وكيل تأثير أخلاقي قبل سنة 2000، وبعد سنة 2000 وكيل تأثير غير أخلاقي.
2. وكلاء أخلاقيون بشكلٍ ضمني Implicit ethical agents: تمت برمجة هؤلاء الوكلاء بهدف تجنب النتائج غير الأخلاقية.
3. وكلاء أخلاقيون بشكلٍ صريح: وهذه آلات قادرة على معالجة السيناريوهات والتصرف بناءً على القرارات الأخلاقية، أي آلات لديها خوارزميات للعمل بشكل أخلاقي.
4. وكلاء أخلاقيون بشكلٍ كامل Full ethical agents: وهذه آلات تُشبه الفئة السابقة في القدرة على اتخاذ قرارات أخلاقية، لكنها تحتوي أيضًا على سمات ميتافيزيقية بشرية (أي حرية الإرادة والوعي والقصد).
يذهب بعض الباحثين (مثل الفيلسوف السويدي الأصل «نيك بوستروم» Nick Bostrom (من مواليد 1973)، وعالم الذكاء الاصطناعي البريطاني «ستيوارت راسل» Stuart Russell (من مواليد 1962)، إلى أنه إذا تجاوز الذكاء الاصطناعي البشرية في الذكاء العام وأصبحت الآلة (فائقة الذكاء Superintelligent)، فقد يصبح هذا الذكاء الخارق الجديد قويًا ويصعب التحكم فيه، ومن ثم فإن مصير البشرية قد يعتمد على أفعال الذكاء الخارق للآلة في المستقبل. ويؤكد «نيك بوستروم» في كتابه «الذكاء الفائق: مسارات، مخاطر، استراتيجيات» Superintelligence: Paths, Dangers, Strategies (2014)، و«ستيوارت راسل» في كتابه «متوافق مع الإنسان: الذكاء الاصطناعي ومشكلة التحكم» Human Compatible: Artificial Intelligence and the Problem of Control (2019)، أنه في حين أن هناك كثيرًا من عدم اليقين فيما يتعلق بمستقبل الذكاء الاصطناعي، فإن الخطر على البشرية كبير بما يكفي للقيام بإجراءات مهمة في الوقت الحاضر. وهكذا يُمكن صياغة مشكلة التحكم في الذكاء الاصطناعي على النحو التالي: كيف يُمكن بناء وكيل ذكي يساعد مبدعيه، مع تجنب بناء ذكاء خارق عن غير قصد من شأنه إلحاق الضرر بمبدعيه. إن خطر عدم تصميم التحكم بشكل صحيح (في المرة الأولى)، هو أن الذكاء الخارق قد يكون قادرًا على الاستيلاء على السلطة في بيئته، ومنع البشر من إغلاقها. وتتضمن استراتيجيات التحكم المحتملة في الذكاء الاصطناعي «التحكم في القدرات» Capability Control (أي الحد من قدرة الذكاء الاصطناعي على التأثير في العالم)، و«التحكم التحفيزي» Motivational Control (وهو إحدى طرق بناء الذكاء الاصطناعي الذي تتماشى أهدافه مع القيم البشرية أو القيم المثلى). وثمة عدد من الجمعيات والمؤسسات التي تبحث في مشكلة التحكم في الذكاء الاصطناعي، بما في ذلك معهد مستقبل الإنسانية Future of Humanity Institute، ومعهد أبحاث الذكاء الآلي Machine Intelligence Research Institute، ومركز الذكاء الاصطناعي المتوافق مع الإنسان Center for Human-Compatible Artificial Intelligence، ومعهد مستقبل الحياة Future of Life Institute.
في سنة 2009، وفي تجربة مثيرة في مختبر الأنظمة الذكية Laboratory of Intelligent Systems بمدرسة البوليتكنيك الفيدرالية Ecole Polytechnique Fédérale في لوزان Lausanne بسويسرا Switzerland، تمت برمجة روبوتات الذكاء الاصطناعي بحيث تتعاون مع بعضها البعض، وتم تكليفها بهدف البحث عن الموارد المفيدة مع تجنب الموارد السامة. وخلال التجربة، تم تجميع الروبوتات في عشائر، وتم استخدام الشفرة الوراثية الرقمية للأعضاء الناجحين للجيل القادم، وهو نوع من الخوارزمية المعروفة باسم «الخوارزمية الجينية» Genetic Algorithm، وبعد خمسين جيلًا متتاليًا في الذكاء الاصطناعي، اكتشف أعضاء إحدى العشائر كيفية التمييز بين المورد المفيد والمورد السام. ثم تعلمت الروبوتات أن تكذب على بعضها البعض في محاولة للاستئثار بالمورد المفيد من الروبوتات الأخرى. وفي التجربة ذاتها، تعلمت روبوتات الذكاء الاصطناعي نفسها أيضًا التصرف بنكران الذات، والإشارة إلى الخطر على الروبوتات الأخرى، وماتت أيضًا على حساب إنقاذ الروبوتات الأخرى! لقد تمت برمجة أهداف الروبوتات في هذه التجربة بحيث تكون «نهائية»، لكن الدوافع البشرية تتسم عادة بجودة تستلزم بحثًا لا ينتهي، وهو ما يضطلع به علماء الأخلاق حاليًا.
أيضًا في سنة 2009، شارك عددٌ من الأكاديميين والخبراء في مؤتمرٍ لمناقشة التأثير المحتمل للروبوتات وأجهزة الحاسوب، وتأثير الاحتمال الافتراضي بأن تُصبح هذه الآلات مكتفية ذاتيًا وقادرة على اتخاذ قرارات بنفسها. وقد ناقش المشاركون إمكانية ومدى قدرة أجهزة الحاسوب والروبوتات على اكتساب أي مستوى من الاستقلالية، وإلى أي مدى يمكنها استخدام هذه القدرات لتشكيل أي تهديد أو خطر، وأشاروا إلى أن بعض الآلات قد اكتسبت أشكالًا مختلفة من شبه الحكم الذاتي، بما في ذلك القدرة على العثور على مصادر الطاقة بمفردها، والقدرة على اختيار الأهداف بشكل مستقل للهجوم بالأسلحة. كما أشاروا إلى أن بعض فيروسات الحاسوب يمكنها التهرب من القضاء عليها، وحققت ما يُسمى «ذكاء الصرصور» Cockroach Intelligence. أشاروا كذلك إلى أن الوعي الذاتي كما نجده في روايات الخيال العلمي من المحتمل ألا يكون مُحتملاً، لكن هناك مخاطر ومزالق أخرى محتملة. كما شكك بعض الخبراء والأكاديميين في استخدام الروبوتات للقتال العسكري، خاصةً عندما يتم إعطاء مثل هذه الروبوتات درجة معينة من الوظائف المستقلة، وقد قامت البحرية الأمريكية بتمويل تقرير يشير إلى أنه مع زيادة تعقيد الروبوتات العسكرية، يجب أن يكون هناك اهتمام أكبر بالآثار المترتبة على قدرتها على اتخاذ قرارات مستقلة، وطالب رئيس جمعية النهوض بالذكاء الاصطناعي بإجراء دراسة للنظر في هذه المسألة!
من جهة أخرى، أصبحت خوارزميات البيانات الضخمة والتعلم الآلي العميق شائعة في العديد من الصناعات، بما في ذلك الإعلانات المنشورة عبر الإنترنت، والتصنيفات الائتمانية، والأحكام الجنائية، مع وعد بتقديم نتائج أكثر موضوعية وقائمة على البيانات، ولكن تم تحديدها كمصدر محتمل لعدم المساواة الاجتماعية والتمييز. وقد أظهرت دراسة أجريت سنة 2015 أن النساء كن أقل عرضة لعرض إعلانات الوظائف ذات الدخل المرتفع من قبل تطبيق «جوجل أدسنس» Google AdSense. كما أظهرت دراسة أخرى أن خدمة التوصيل في اليوم ذاته من شركة «أمازون» لم تكن متوفرة عن قصد في الأحياء السوداء. ولم تتمكن شركتا أمازون وجوجل من عزل هذه النتائج في قضية واحدة، ولكن بدلاً من ذلك أوضحتا أن النتائج كانت نتيجة خوارزميات الصندوق الأسود التي استخدمتاها!
وفي محاولة لمعالجة المخاوف المتزايدة بشأن تأثير التعلم الآلي العميق على حقوق الإنسان، نشر المنتدى الاقتصادي العالمي ومجلس المستقبل العالمي لحقوق الإنسان في مارس سنة 2008 ورقة تحوي توصيات مفصلة حول أفضل السبل لمنع النتائج التمييزية في التعلم الآلي. كما طور المنتدى الاقتصادي العالمي أربع توصيات بناءً على مبادئ الأمم المتحدة التوجيهية لحقوق الإنسان للمساعدة في معالجة ومنع النتائج التمييزية في التعلم الآلي، وجاءت على النحو التالي:
1. الإدماج النشط Active Inclusion: يجب أن يسعى تطوير وتصميم تطبيقات التعلم الآلي بنشاط إلى مجموعة متنوعة من المدخلات، لا سيما معايير وقيم مجموعات سكانية محددة تتأثر بمخرجات أنظمة الذكاء الاصطناعي.
2. الإنصاف Fairness: يجب على الأشخاص المشاركين في وضع تصور لأنظمة التعلم الآلي وتطويرها وتنفيذها النظر في تعريف الإنصاف الذي ينطبق بشكل أفضل على سياقاتهم وتطبيقهم، وإعطائه الأولوية في بنية نظام التعلم الآلي ومقاييس التقييم الخاصة به.
3. الحق في الفهم Right to Understanding: يجب الإفصاح عن مشاركة أنظمة التعلم الآلي في صنع القرار الذي يؤثر على الحقوق الفردية، ويجب أن تكون الأنظمة قادرة على تقديم تفسير لاتخاذ قراراتها يكون مفهومًا للمستخدمين النهائيين ويمكن مراجعته من قبل سلطة بشرية مختصة. وعندما يكون هذا مستحيلاً وتكون الحقوق على المحك، يجب على القادة في تصميم تكنولوجيا التعلم الآلي ونشرها وتنظيمها أن يتساءلوا عما إذا كان ينبغي استخدامها أم لا.
4. الوصول إلى التعويض Access to Redress: يتحمل القادة والمصممون ومطورو أنظمة التعلم الآلي مسؤولية تحديد الآثار السلبية المحتملة لأنظمتهم على حقوق الإنسان. يجب عليهم توفير سبل واضحة لإنصاف المتضررين من الآثار المتباينة، وتدشين عمليات للتعويض في الوقت المناسب عن أية مخرجات تمييزية.
وفي يناير سنة 2020، نشر «مركز بيركمان كلاين للإنترنت والمجتمع بجامعة هارفارد» Harvard University’s Berkman Klein Center for Internet and Society دراسة وصفية لـ 36 مجموعة بارزة من مبادئ الذكاء الاصطناعي، حددت ثمانية موضوعات رئيسة، وهي: الخصوصية، والمساءلة، والسلامة والأمن، والشفافية وقابلية التفسير، والإنصاف وعدم التمييز، السيطرة البشرية على التكنولوجيا، والمسؤولية المهنية، وتعزيز القيم الإنسانية.
من المنظور الفلسفي بُذلت عدة محاولات لجعل الأخلاقيات قابلة للحساب، أو على الأقل صورية. وحيث أن قوانين الروبوتات الثلاثة لإسحاق أسيموف لا تُعد عادةً مناسبة لوكيل أخلاقي مصطنع، فقد تمت دراسة ما إذا كان يمكن استخدام مفهوم الواجب المقولي عند «كانط» Kant’s categorical imperative. ومع ذلك، فقد أشير إلى أن القيمة الإنسانية، في بعض الجوانب، معقدة للغاية. وإحدى طرق التغلب على هذه الصعوبة هي تلقي القيم الإنسانية مباشرة من البشر من خلال آلية ما، على سبيل المثال من خلال تعلمهم.
ثمة مقاربة أخرى تتمثل في بناء الاعتبارات الأخلاقية الحالية على مواقف مماثلة سابقة، وهذا ما يسمى بعلم معالجة القضايا (الإفتاء في قضايا الضمير) Casuistry، ويمكن تنفيذه من خلال البحث على الإنترنت؛ فالإجماع على مليون قرار سابق سيؤدي إلى قرار جديد يعتمد على الديمقراطية. وقد ابتكر البروفيسور «بروس إم ماكلارين» Bruce M. McLaren نموذجًا حسابيًا مبكرًا (منتصف التسعينيات) لعلم معالجة القضايا، وتحديداً برنامج يُسمى «سيروكو» SIROCCO، تم إنشاؤه باستخدام تقنيات الذكاء الاصطناعي والاستدلال بدراسة الحالة. ومع ذلك، يمكن أن تؤدي هذه المقاربة إلى قرارات تعكس التحيزات والسلوكيات غير الأخلاقية التي تظهر في المجتمع. ويمكن رؤية الآثار السلبية لهذه المقاربة في برنامج الدردشة «تاي بوت» Tay (bot) الخاص بشركة ميكروسوفت، حيث تعلم الروبوت تكرار الرسائل العنصرية والمشحونة جنسيًا التي يرسلها مستخدمو تويتر.
أخيرًا، وعلى الرغم من أن الفكرة الأساسية لأخلاقيات الآلة قد وجدت طريقها مؤخرًا نحو محاولات التطبيق الفعلي، إلا أن ثمة مناقشات جدلية واسعة النطاق ما زالت تكتنف الفكرة وتُصاحب محاولات تطبيقها، لاسيما فيما يتلق بالثراء والتنوع الأخلاقي في الثقافات المختلفة، وصراعات الهيمنة السياسية والاقتصادية، وحقيقة أن الروبوت المبرمج لاتباع قواعد – أو اتخاذ قرارات – أخلاقية، يمكن بسهولة إعادة برمجته بحيث يتبع قواعد – أو يتخذ قرارات – غير أخلاقية! والأخطر من هذا كله هو الإجابة عن السؤال المُلح والصعب: كيف يمكننا نحن البشر أن نظل متحكمين في نظام ذكاء اصطناعي بمجرد أن يصبح فائق الذكاء؟ وبمعنى أوسع، كيف يُمكننا التأكد من أن أي نظام ذكاء اصطناعي سيغدو إيجابيًا وفقًا للتصور البشري؟ تتمثل أحد جوانب صعوبة الإجابة عن هذا السؤال في أننا قد نقرر أن ميزة معينة مرغوبة، لكننا نكتشف بعد ذلك أن لها عواقب سلبية للغاية غير متوقعة لدرجة أننا لا نرغب في هذه الميزة على الإطلاق. تُماثل هذه المشكلة أسطورة «الملك ميداس» King Midas الذي تمنى أن يتحول كل ما يلمسه إلى ذهب، وما أن حقق له «ديونيسوس» Dionyssus (إله الخمر والابتهاج والنشوة) أمنيته، حتى تحول كل ما يلمسه، حتى طعامه وشرابه وابنته إلى ذهبٍ، فراح يتضرع إلى «ديونيسوس» كي يرفع عنه هذه اللعنة!
لقد انتقلنا في غضون عقودٍ قليلة من الحديث عن الذكاء الاصطناعي كخيالٍ علمي نُسلي به أنفسنا ونشحذ به عقول صغارنا وإن كان بعيد المنال، إلى الوعد بحل كافة مشاكلنا وتدشين دولة الرفاهية بتقنيات الذكاء الاصطناعي، إلى التحذير المُخيف بأن الذكاء الاصطناعي سيقتلنا جميعًا؛ وما علينا الآن سوى مراقبة التطورات التكنولوجية والاجتماعية عن كثب لفهم المخاطر التي تواجهنا وتواجه أحفادنا على المدى البعيد، ومناقشة القضايا الطارئة في وقت مبكر، وتطوير تحليل فلسفي يُلبي حاجات الواقع الجديد، وبناء رؤية مستقبلية تًشبع معطيات الحاضر ومردوداتها المنتظرة!