عقول بلا نوايا.. هل يمكن للذكاء الاصطناعي أن يكون أخلاقيًا بلا إنسانية؟

AI بالعربي – خاص

تتزايد التساؤلات حول قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية دون امتلاكه للنية أو الوعي البشري، في عالم يتسارع فيه تطور الذكاء الاصطناعي، تبدو هذه الاستفسارات منطقية إلى حد كبير. فهل يمكن للآلة أن تكون أخلاقيّة بمعاييرنا الإنسانية؟ وما الذي يجعل القرار الآلي مرفوضًا أو مقبولًا في نظر المجتمع؟ النية الإنسانية عنصر جوهري في الحكم الأخلاقي.

فحين يتخذ الإنسان قرارًا، لا يُنظر إلى نتيجته فحسب، بل إلى ما قصده الفاعل. أما في حالة الذكاء الاصطناعي، فغياب النية يُفقد القرار سياقه الأخلاقي، ويجعله أقرب إلى الحسابات الباردة منه إلى الفعل الأخلاقي.

هذا التحدي يدفع الباحثين إلى مساءلة جوهرية: هل يجب أن نعلّم الآلات “ما هو الصواب” فقط؟ أم يجب أن نمنحها أدوات لفهم “لماذا” نعتبره صوابًا؟ وهذا الفارق هو ما يجعل الفرق شاسعًا بين أخلاقيات التطبيق وأخلاقيات الفهم.

الذكاء الاصطناعي واللاوعي الأخلاقي

يعتمد الذكاء الاصطناعي على خوارزميات ومعادلات رياضية لتحليل البيانات واتخاذ القرارات، دون أن يمتلك إحساسًا بالقيم أو إدراكًا للسياقات الاجتماعية أو الإنسانية التي تؤطر الأفعال. وهذا يطرح إشكالية جوهرية في تمثيل القيم البشرية داخل نموذج غير واعٍ.

على سبيل المثال، قد يتخذ نظام ذكاء اصطناعي قرارًا بتقليص خدمات في منطقة معينة لأنه استنتج أنها غير مربحة اقتصاديًا، لكنه يتجاهل حقيقة أن هذه الخدمات أساسية لفئات محرومة، ما يجعله قرارًا لا أخلاقيًا رغم صحته الرقمية.

فاللاوعي الأخلاقي للذكاء الاصطناعي يعني أنه لا يستطيع التفريق بين الضرر غير المقصود والضرر المتعمد، لأنه لا يملك مفهومًا أصيلًا عن النية أو التعاطف. وهذا ما يجعل بعض قراراته مثيرة للقلق، حتى وإن بدت منطقية من منظور الآلة.

يشير كتاب “Unconscious Networks: Philosophy, Psychoanalysis, and Artificial Intelligence” إلى أن الديناميكيات اللاواعية تؤثر في الذكاء الاصطناعي والتكنولوجيا الرقمية، وفهم هذه الديناميكيات ضروري للسيطرة الأفضل على هذه الأنظمة. ويجادل المؤلف “Luca M. Possati” بأنَّ الديناميكيات اللَّاواعية لدى الإنسان تؤثر وتشكّل التكنولوجيا، تمامًا كما تؤثر التكنولوجيا وتشكّل لاوعي الإنسان.

من الواقع العربي.. خوارزميات بلا حساسية اجتماعية

لم تكن التحذيرات من تحيز الذكاء الاصطناعي حكرًا على الدراسات الغربية. ففي عام 2024، أثير جدل في إحدى الجامعات العربية بعد استخدام نظام تقييم آلي لطلبات القبول. النظام، الذي بُرمج ليقيّم الأداء الأكاديمي فقط، استبعد تلقائيًا عددًا من المتقدمين من مدارس ريفية بحجة تدني المعدلات، دون أن يأخذ في الاعتبار الفروق في الفرص التعليمية أو جودة التعليم المتاحة لهؤلاء الطلبة.

بحسب ما اهتدت إليه أعمال المؤتمر الدولي الأول حول الذكاء الاصطناعي في التعليم العالي والخدمة المجتمعية على مدرج جامعة دمشق، أنَّه برغم أن القرار بدا منطقيًا رقميًا، إلا أنه قوبل بانتقادات حادة لأنه افتقر إلى “العدالة الإنسانية” وفهم السياقات الاجتماعية، وهي مشكلة تتكرر كلما فُصل القرار عن الوعي البشري.

إنسانية تنحاز ولا تشمل

في عام 2025، كشفت مجلة “Nature AI Policy” عن دراسة لنظام توظيف يستخدم الذكاء الاصطناعي قامت شركة أوروبية بتطبيقه. النظام بدأ برفض السير الذاتية التي تنتمي لأحياء ذات رموز بريدية فقيرة، رغم حذف كل البيانات الشخصية، مما كشف عن تحيز خفي نابع من بيانات التدريب.
في ذات العام، نشرت “MIT AI Ethics Lab” دراسة عن خوارزمية طبية رفضت تقديم علاج لمريضة مسنة مصابة بالسرطان بحجة أولوية تقديم الرعاية لصغار السن. القرار تم بناء على معيار بقاء الحياة، لكن تم انتقاد الخوارزمية لأنها تجاهلت الحالة الإنسانية والقانونية للمريضة.

هذه الأمثلة تبرز كيف أن الذكاء الاصطناعي قادر على اتخاذ قرارات فعالة منطقية، لكنها تفتقر للبعد الإنساني الذي يأخذ في الاعتبار العدالة، الرحمة، والسياق الاجتماعي.

صوت معارض.. هل تُنقذنا أخلاق الآلة من تحيّز الإنسان؟

رغم التحذيرات الواسعة، يبرز تيار فكري يرى في الذكاء الاصطناعي فرصة أخلاقية، لا تهديدًا لها.

يرى باحثون في “Oxford Internet Institute” أنّ الأنظمة الآلية – إذا أُحسن تدريبها – يمكن أن تتفوق على الإنسان في اتخاذ قرارات عادلة، لأنها خالية من الأهواء، والعواطف، والتحيزات الشخصية. يستشهد هؤلاء بحالات أثبتت فيها الخوارزميات قدرًا أعلى من الإنصاف، كما في تقييم المرشحين للعمل دون النظر إلى أسمائهم أو مظهرهم أو خلفياتهم الاجتماعية، وهي معايير أثبتت الدراسات أن البشر يتأثرون بها رغمًا عنهم.

هذا الصوت المعارض لا ينكر محدودية الذكاء الاصطناعي، لكنه يدعو إلى استثماره في المجالات التي فشل فيها الإنسان في أن يكون محايدًا أو عادلًا.

مقارنة بين الإنسان والآلة في اتخاذ القرار الأخلاقي

في تحليل مبسّط، يمكن مقارنة عناصر القرار الأخلاقي بين الإنسان والآلة عبر ثلاثة محاور رئيسية: النية، الوعي السياقي، وقابلية التراجع.

الإنسان يمتلك نية مسبقة مرتبطة بالقيم، ووعيًا مرنًا يسمح له بتقدير السياقات المختلفة، إضافة إلى إمكانية التراجع عن القرار بناءً على مراجعة ذاتية.

في المقابل، يتخذ الذكاء الاصطناعي قراراته بناء على نماذج رياضية دون نية واضحة، وبوعي سياقي جامد، ونادرًا ما يكون لديه نظام مدمج يسمح بالتراجع أو تعديل السلوك.

هذه الفروقات تجعل من الصعب الاعتماد الكلي على الذكاء الاصطناعي في البيئات التي تتطلب مرونة أخلاقية عالية، كما هو الحال في المجالات الطبية، القانونية، والتعليمية. فغياب الحس الأخلاقي الفطري لدى الآلة يُعقّد من مسألة الثقة بها، ويبرز الحاجة إلى إشراف بشري دائم، يضمن أن تبقى القيم الإنسانية حاضرة في مسارات اتخاذ القرار.

في بوتقة الذكاء الاصطناعي.. هل نواجه فراغًا قانونيًا وتنظيميًا؟

رغم تسارع دمج الذكاء الاصطناعي في مختلف القطاعات، لا تزال القوانين عاجزة عن مواكبة هذا التطور التقني. تقرير مجلس الاتحاد الأوروبي الصادر في يناير 2025 أشار إلى أن معظم الدول لا تملك أطرًا قانونية تنظم القرارات الآلية من منظور أخلاقي واضح.

العديد من الأنظمة القانونية الحالية تفترض وجود نية إنسانية خلف القرار، مما يجعل محاسبة نظام ذكاء اصطناعي على أخطاءه أمرًا معقدًا قانونيًا وأخلاقيًا. هذا يفتح الباب لمساءلة جديدة حول مفهوم المسؤولية في زمن الذكاء الاصطناعي.

توصيات التقرير شملت إنشاء هيئات مستقلة لمراجعة أخلاقيات أنظمة الذكاء الاصطناعي، وفرض قواعد إلزامية تتعلق بالشفافية، التفسير، والمساءلة، خاصة في التطبيقات الحساسة كالصحة، العدالة، والمالية.

أصوات مستقبلية.. نحو “ذكاء نوايا”

في خطوة نحو تطوير أخلاقيات معرفية، أطلقت جامعة طوكيو بالشراكة مع “OpenAI” مشروع “ذكاء النوايا” في فبراير 2025.

يهدف المشروع إلى تصميم خوارزميات لا تكتفي بإصدار القرارات، بل تفسر نية القرار، وتقدّر أبعاده الاجتماعية قبل تنفيذه.

تعتمد هذه النماذج التجريبية على تحليل السياقات، والربط بين المعلومات الرقمية والمفاهيم القيمية التي تم استيفاؤها من فلسفات متعددة، مثل “أخلاق الفضيلة، والنفعية، والوجوب”، وهو ما يعطي النظام بعدًا تأويليًا غير مسبوق.

هذا التوجه يعكس قناعة متزايدة في الأوساط البحثية أن الذكاء الاصطناعي لا ينبغي أن يُدرَّب فقط على النتائج، بل على المعاني.

فربما لا يكون الذكاء الأخلاقي مسألة حسابات دقيقة فحسب، بل مسألة وعي مشترك، تتقاطع فيه الخوارزميات مع الضمير البشري، لا لمنافسته، بل لتعزيزه.. تُرى هل سينجح في ذلك؟

اترك رد

Your email address will not be published.