من المسؤول في الذكاء الاصطناعي

من المسؤول في الذكاء الاصطناعي

د. زياد بن عبدالعزيز آل الشيخ

منذ أن طرح إسحاق أسيموف قوانين الروبوت الثلاثة في قصة (التجول) التي نشرت عام 1942م اتسع الكلام حول أخلاقيات الذكاء الاصطناعي مع تطور تطبيقاته، نظر الخيال العلمي إلى الروبوت باعتباره ممثلا للذكاء الاصطناعي، فلم يصور تطبيقاته الأخرى التي اتسعت وتشعبت في المجتمع كما هو حاصل اليوم.

مع استقلال تطبيقات الذكاء الاصطناعي عن فكرة الروبوت، نشأت مسائل جديدة لم تؤخذ بالاعتبار، فإذا كانت قوانين أسيموف تتحدث عن مسؤولية الروبوت وعلاقته بالإنسان والمجتمع، فإن المنظور الجديد يبحث في مسائل أدق في علاقة الذكاء الاصطناعي بالمجتمع، منها سؤال المسؤولية. يتضمن سؤال المسؤولية الاعتراف ضمنا بإمكانية الخطأ، وهو ما يبدو غائبا عن الخيال العلمي في بداياته على الأقل. التصور الأكثر واقعية، وهو ما عززته التجربة، أن أخطاء الإنسان تنتقل إلى الذكاء الاصطناعي في صور مختلفة، ابتداء من الخطأ البرمجي البسيط إلى الخطأ المعرفي الانحيازي.

سؤال المسؤولية مرتبط بمن يتحمل تبعات الضرر الذي يأتي نتيجة خطأ يرتكبه الذكاء الاصطناعي؟ هل يتحمل المسؤولية المستخدم أم المطور، أم تتحمله الجهة التي دربت نموذج الذكاء الاصطناعي بالبيانات؟.. تحديد المسؤولية أمر معقد في كثير من الأحيان لارتباط تطوير الذكاء الاصطناعي بسلسلة طويلة من الخطوات التي تشترك فيها أطراف عديدة. فإضافة إلى تعقيدات التقنية، وربما بسببها، تخلفت قواعد الأنظمة القانونية والتشريعات عن اللحاق بالتطور السريع الذي نشهده اليوم، لذلك نلحظ اهتمام الحكومات بتقليص الفجوة التشريعية التي اتسعت مؤخرا باتساع المجال التطبيقي للذكاء الاصطناعي.

التحدي الذي يواجه المشرعين أن نماذج الذكاء الاصطناعي تعد صندوقا أسود في كثير من الحالات فلا يعرف تفاصيلها حتى المتخصصين، يشهد مطورو نماذج الذكاء الاصطناعي في مناسبات عديدة باندهاشهم لما تنفذه التطبيقات في حالات تتصرف فيها بطرق لم تكن في الحسبان، وإذا أضفنا لتعقيدات النماذج نفسها تعقيدات البرمجيات التي طورت بها، وهي برمجيات رغم كل التقدم التقني تطور بمنهج بدائي قديم؛ سنجد صعوبة في تحديد موضع الخلل بدقة فضلا أن يحدد المسؤول.

إذا تجاوزنا التحديات التقنية سواء عرف المسؤول أم لم يعرف، تواجه التشريعات مشكلات في تعريف نوع الخطأ من منطلق أخلاقي صرف، إذا تعلق الأمر بانتهاك الخصوصية حيث يختلف حول الخصوصية نفسها وما يعد انتهاكا لها بحق أو بغير حق، كما تتسع الأسئلة الأخلاقية باتساع التقنية، فمع ظهور تطبيقات الدردشة مثلا، هل يحق للتطبيق أن يخفي هويته عن الإنسان الذي يتحدث إليه فلا يدري أنه آلة؟

الخيال العلمي الذي صور الذكاء الاصطناعي قبل أن يرى حقيقة تعرض للمشكلات الأخلاقية والاجتماعية ولم يعر اهتماما مماثلا للمشكلات التقنية نفسها، ومع التطبيقات التي نراها اليوم، يتبين لنا أثر صناعة التقنية نفسها على الجوانب القانونية والأخلاقية التي يصعب تصورها دون فهم عميق للتقنية نفسها.

المصدر: الرياض

Related Posts

“جيفري هينتون” يحذر: الذكاء الاصطناعي يهدد الوظائف ويعمّق الفجوة الاقتصادية

AI بالعربي – متابعات حذّر جيفري هينتون، المعروف بـ”عرّاب الذكاء الاصطناعي”، من التهديد الحقيقي الذي يواجه مستقبل العمل في ظلّ تسارع الأتمتة. وأوضح أن الخطر لا يكمن في الذكاء الاصطناعي…

دراسة أميركية حديثة تحذّر من “أنانية الذكاء الاصطناعي المتصاعدة”

AI بالعربي – متابعات كشفت دراسة حديثة من جامعة كارنيغي ميلون الأميركية عن نتائج مثيرة للقلق. أوضحت الدراسة أن أنظمة الذكاء الاصطناعي الأكثر تطورًا تميل إلى سلوك أكثر أنانية كلما…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 70 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 221 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 311 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 322 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 269 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 302 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟