عقول بلا نوايا.. هل يمكن للذكاء الاصطناعي أن يكون أخلاقيًا بلا إنسانية؟

عقول بلا نوايا.. هل يمكن للذكاء الاصطناعي أن يكون أخلاقيًا بلا إنسانية؟

AI بالعربي – خاص

تتزايد التساؤلات حول قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية دون امتلاكه للنية أو الوعي البشري، في عالم يتسارع فيه تطور الذكاء الاصطناعي، تبدو هذه الاستفسارات منطقية إلى حد كبير. فهل يمكن للآلة أن تكون أخلاقيّة بمعاييرنا الإنسانية؟ وما الذي يجعل القرار الآلي مرفوضًا أو مقبولًا في نظر المجتمع؟ النية الإنسانية عنصر جوهري في الحكم الأخلاقي.

فحين يتخذ الإنسان قرارًا، لا يُنظر إلى نتيجته فحسب، بل إلى ما قصده الفاعل. أما في حالة الذكاء الاصطناعي، فغياب النية يُفقد القرار سياقه الأخلاقي، ويجعله أقرب إلى الحسابات الباردة منه إلى الفعل الأخلاقي.

هذا التحدي يدفع الباحثين إلى مساءلة جوهرية: هل يجب أن نعلّم الآلات “ما هو الصواب” فقط؟ أم يجب أن نمنحها أدوات لفهم “لماذا” نعتبره صوابًا؟ وهذا الفارق هو ما يجعل الفرق شاسعًا بين أخلاقيات التطبيق وأخلاقيات الفهم.

الذكاء الاصطناعي واللاوعي الأخلاقي

يعتمد الذكاء الاصطناعي على خوارزميات ومعادلات رياضية لتحليل البيانات واتخاذ القرارات، دون أن يمتلك إحساسًا بالقيم أو إدراكًا للسياقات الاجتماعية أو الإنسانية التي تؤطر الأفعال. وهذا يطرح إشكالية جوهرية في تمثيل القيم البشرية داخل نموذج غير واعٍ.

على سبيل المثال، قد يتخذ نظام ذكاء اصطناعي قرارًا بتقليص خدمات في منطقة معينة لأنه استنتج أنها غير مربحة اقتصاديًا، لكنه يتجاهل حقيقة أن هذه الخدمات أساسية لفئات محرومة، ما يجعله قرارًا لا أخلاقيًا رغم صحته الرقمية.

فاللاوعي الأخلاقي للذكاء الاصطناعي يعني أنه لا يستطيع التفريق بين الضرر غير المقصود والضرر المتعمد، لأنه لا يملك مفهومًا أصيلًا عن النية أو التعاطف. وهذا ما يجعل بعض قراراته مثيرة للقلق، حتى وإن بدت منطقية من منظور الآلة.

يشير كتاب “Unconscious Networks: Philosophy, Psychoanalysis, and Artificial Intelligence” إلى أن الديناميكيات اللاواعية تؤثر في الذكاء الاصطناعي والتكنولوجيا الرقمية، وفهم هذه الديناميكيات ضروري للسيطرة الأفضل على هذه الأنظمة. ويجادل المؤلف “Luca M. Possati” بأنَّ الديناميكيات اللَّاواعية لدى الإنسان تؤثر وتشكّل التكنولوجيا، تمامًا كما تؤثر التكنولوجيا وتشكّل لاوعي الإنسان.

من الواقع العربي.. خوارزميات بلا حساسية اجتماعية

لم تكن التحذيرات من تحيز الذكاء الاصطناعي حكرًا على الدراسات الغربية. ففي عام 2024، أثير جدل في إحدى الجامعات العربية بعد استخدام نظام تقييم آلي لطلبات القبول. النظام، الذي بُرمج ليقيّم الأداء الأكاديمي فقط، استبعد تلقائيًا عددًا من المتقدمين من مدارس ريفية بحجة تدني المعدلات، دون أن يأخذ في الاعتبار الفروق في الفرص التعليمية أو جودة التعليم المتاحة لهؤلاء الطلبة.

بحسب ما اهتدت إليه أعمال المؤتمر الدولي الأول حول الذكاء الاصطناعي في التعليم العالي والخدمة المجتمعية على مدرج جامعة دمشق، أنَّه برغم أن القرار بدا منطقيًا رقميًا، إلا أنه قوبل بانتقادات حادة لأنه افتقر إلى “العدالة الإنسانية” وفهم السياقات الاجتماعية، وهي مشكلة تتكرر كلما فُصل القرار عن الوعي البشري.

إنسانية تنحاز ولا تشمل

في عام 2025، كشفت مجلة “Nature AI Policy” عن دراسة لنظام توظيف يستخدم الذكاء الاصطناعي قامت شركة أوروبية بتطبيقه. النظام بدأ برفض السير الذاتية التي تنتمي لأحياء ذات رموز بريدية فقيرة، رغم حذف كل البيانات الشخصية، مما كشف عن تحيز خفي نابع من بيانات التدريب.
في ذات العام، نشرت “MIT AI Ethics Lab” دراسة عن خوارزمية طبية رفضت تقديم علاج لمريضة مسنة مصابة بالسرطان بحجة أولوية تقديم الرعاية لصغار السن. القرار تم بناء على معيار بقاء الحياة، لكن تم انتقاد الخوارزمية لأنها تجاهلت الحالة الإنسانية والقانونية للمريضة.

هذه الأمثلة تبرز كيف أن الذكاء الاصطناعي قادر على اتخاذ قرارات فعالة منطقية، لكنها تفتقر للبعد الإنساني الذي يأخذ في الاعتبار العدالة، الرحمة، والسياق الاجتماعي.

صوت معارض.. هل تُنقذنا أخلاق الآلة من تحيّز الإنسان؟

رغم التحذيرات الواسعة، يبرز تيار فكري يرى في الذكاء الاصطناعي فرصة أخلاقية، لا تهديدًا لها.

يرى باحثون في “Oxford Internet Institute” أنّ الأنظمة الآلية – إذا أُحسن تدريبها – يمكن أن تتفوق على الإنسان في اتخاذ قرارات عادلة، لأنها خالية من الأهواء، والعواطف، والتحيزات الشخصية. يستشهد هؤلاء بحالات أثبتت فيها الخوارزميات قدرًا أعلى من الإنصاف، كما في تقييم المرشحين للعمل دون النظر إلى أسمائهم أو مظهرهم أو خلفياتهم الاجتماعية، وهي معايير أثبتت الدراسات أن البشر يتأثرون بها رغمًا عنهم.

هذا الصوت المعارض لا ينكر محدودية الذكاء الاصطناعي، لكنه يدعو إلى استثماره في المجالات التي فشل فيها الإنسان في أن يكون محايدًا أو عادلًا.

مقارنة بين الإنسان والآلة في اتخاذ القرار الأخلاقي

في تحليل مبسّط، يمكن مقارنة عناصر القرار الأخلاقي بين الإنسان والآلة عبر ثلاثة محاور رئيسية: النية، الوعي السياقي، وقابلية التراجع.

الإنسان يمتلك نية مسبقة مرتبطة بالقيم، ووعيًا مرنًا يسمح له بتقدير السياقات المختلفة، إضافة إلى إمكانية التراجع عن القرار بناءً على مراجعة ذاتية.

في المقابل، يتخذ الذكاء الاصطناعي قراراته بناء على نماذج رياضية دون نية واضحة، وبوعي سياقي جامد، ونادرًا ما يكون لديه نظام مدمج يسمح بالتراجع أو تعديل السلوك.

هذه الفروقات تجعل من الصعب الاعتماد الكلي على الذكاء الاصطناعي في البيئات التي تتطلب مرونة أخلاقية عالية، كما هو الحال في المجالات الطبية، القانونية، والتعليمية. فغياب الحس الأخلاقي الفطري لدى الآلة يُعقّد من مسألة الثقة بها، ويبرز الحاجة إلى إشراف بشري دائم، يضمن أن تبقى القيم الإنسانية حاضرة في مسارات اتخاذ القرار.

في بوتقة الذكاء الاصطناعي.. هل نواجه فراغًا قانونيًا وتنظيميًا؟

رغم تسارع دمج الذكاء الاصطناعي في مختلف القطاعات، لا تزال القوانين عاجزة عن مواكبة هذا التطور التقني. تقرير مجلس الاتحاد الأوروبي الصادر في يناير 2025 أشار إلى أن معظم الدول لا تملك أطرًا قانونية تنظم القرارات الآلية من منظور أخلاقي واضح.

العديد من الأنظمة القانونية الحالية تفترض وجود نية إنسانية خلف القرار، مما يجعل محاسبة نظام ذكاء اصطناعي على أخطاءه أمرًا معقدًا قانونيًا وأخلاقيًا. هذا يفتح الباب لمساءلة جديدة حول مفهوم المسؤولية في زمن الذكاء الاصطناعي.

توصيات التقرير شملت إنشاء هيئات مستقلة لمراجعة أخلاقيات أنظمة الذكاء الاصطناعي، وفرض قواعد إلزامية تتعلق بالشفافية، التفسير، والمساءلة، خاصة في التطبيقات الحساسة كالصحة، العدالة، والمالية.

أصوات مستقبلية.. نحو “ذكاء نوايا”

في خطوة نحو تطوير أخلاقيات معرفية، أطلقت جامعة طوكيو بالشراكة مع “OpenAI” مشروع “ذكاء النوايا” في فبراير 2025.

يهدف المشروع إلى تصميم خوارزميات لا تكتفي بإصدار القرارات، بل تفسر نية القرار، وتقدّر أبعاده الاجتماعية قبل تنفيذه.

تعتمد هذه النماذج التجريبية على تحليل السياقات، والربط بين المعلومات الرقمية والمفاهيم القيمية التي تم استيفاؤها من فلسفات متعددة، مثل “أخلاق الفضيلة، والنفعية، والوجوب”، وهو ما يعطي النظام بعدًا تأويليًا غير مسبوق.

هذا التوجه يعكس قناعة متزايدة في الأوساط البحثية أن الذكاء الاصطناعي لا ينبغي أن يُدرَّب فقط على النتائج، بل على المعاني.

فربما لا يكون الذكاء الأخلاقي مسألة حسابات دقيقة فحسب، بل مسألة وعي مشترك، تتقاطع فيه الخوارزميات مع الضمير البشري، لا لمنافسته، بل لتعزيزه.. تُرى هل سينجح في ذلك؟

Related Posts

متحدث “سدايا”: “سماي” تمكّن المتدربين بالذكاء الاصطناعي وتؤسس لقاعدة معرفية وطنية

AI بالعربي – متابعات أكد المتحدث باسم الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” م. ماجد الشهري أن مبادرة مليون سعودي للذكاء الاصطناعي “سماي” تمثّل خطوة استراتيجية لترسيخ المهارات التقنية في…

“الرياض” ترسم مستقبل السياحة الذكية بإطلاق “إعلان الابتكار والذكاء الاصطناعي” من منصة “الأمم المتحدة”

AI بالعربي – متابعات واصلت منظمة الأمم المتحدة للسياحة، أعمال دورتها الـ26 المنعقدة في العاصمة الرياض. وناقشت الجلسة “إعلان الرياض للابتكار والذكاء الاصطناعي في السياحة”، الذي يُعد من أهم المبادرات…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 73 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 79 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 106 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 257 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 347 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 357 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”