“القاضي الروبوت”..هل يقرر الذكاء الاصطناعي بقرارات المحاكم؟
AI بالعربي – متابعات
مع انتشار استخدام الذكاء الاصطناعي في الكثير من مجالات الحياة، تدور حاليا نقاشات جادة في الأوساط العلمية بشأن البعد الأخلاقي لمنح الخوارزميات التي تحاكي السلوك البشري صلاحيات التأثير في قرارات المحاكم.
ويأتي الذكاء الاصطناعي الذي يُعتقد أنه يوفر مزايا كثيرة مثل تسريع الاجراءات القضائية وأتمتة الروتين، في مقدمة التطبيقات التجريبية بمجال القانون والتي بدأ اختبارها في أجزاء مختلفة من العالم، وخصوصا في الصين وكندا وإستونيا وماليزيا.
ومن خلال تطبيق “القاضي الروبوت” الذين يقوم بتقييم القضايا الصغيرة في إستونيا، و”الروبوت الوسيط” في كندا، وقضاة الذكاء الاصطناعي في الصين، ونظام التحكيم بالذكاء الاصطناعي في ماليزيا، أصبحت هيمنة الخوارزميات على النظام القضائي واقعا.
وفي عام 2019 بدأ مركز “خدمة التقاضي عبر الإنترنت” التابع لـ”محكمة الإنترنت” الصينية في استخدام برمجيات الذكاء الاصطناعي للمساعدة في اتخاذ القرارات في الإجراءات القانونية الروتينية، بما في ذلك رفع القضايا ومعالجتها.
وفي العام نفسه، بدأت إستونيا باستخدام تطبيقات الروبوتات المعززة بالذكاء الاصطناعي في المحاكم، وخاصة في مجال فحص وتحليل الوثائق القانونية ومعالجة القضايا التي تقل قيمتها المادية عن 7 آلاف يورو.
بدورها، بدأت ماليزيا عام 2022 استخدام التطبيقات التجريبية لنظام التقاضي باستخدام الذكاء الاصطناعي في محاكم بعض الولايات.
ورغم أن إدراج الذكاء الاصطناعي في النظام القضائي يساعد في جعل العقوبات أكثر اتساقا وفاعلية من حيث الكلفة المالية للقضايا المتراكمة، إلا أن النقاش حاليا يدور حول ما إذا كانت تلك الأحكام والتطبيقات سليمة من ناحية الأخلاقيات القانونية.
الرقابة الأخلاقية هي الأهم
الأستاذ الدكتور أحمد علوي توركباغ، المحاضر بكلية الحقوق في جامعة اسطنبول ميديبول، يرى أن هناك مبادئ معينة تحكم الرقابة الأخلاقية للذكاء الاصطناعي.
وقال توركباغ للأناضول إن “أهم تلك المبادئ هي أن يتسم الذكاء الاصطناعي بالشفافية”، مضيفا إن ذلك “شرط يجب أن يكون خاضعا للتحكم المطلق”.
وتابع: “إذا كنا لا نعرف سبب اتخاذ القرار، فسيكون ذلك منطقا غير أخلاقي، ولا يمكننا إصدار حكم بشأن صحة القرار، ويمكن أن يؤدي ذلك إلى عواقب وخيمة في المستقبل”.
وأوضح توركباغ أن الذكاء الاصطناعي لديه القدرة على اتخاذ “قرارات مفاجئة”، مؤكدا أن “القرارات التي تتخذها الخوارزميات يجب أن تكون في متناول البشر”.
وشدد على أن “قرارات المحكمة التي تتخذها الخوارزميات يجب أن تكون قابلة للتدقيق بواسطة الذكاء البشري، مع إمكانية التحكم بالخوارزميات بشكل جيد من خلال برامج مماثلة لتطبيقات مكافحة الفيروسات تقوم بتدقيق عمل برامج الذكاء الاصطناعي ذات الأغراض العامة أو الخاصة وزيادة موثوقيتها الأخلاقية”.
مخاوف بشأن التلاعب وخرق الخصوصية
وفي شكوى إلى لجنة التجارة الفيدرالية بالولايات المتحدة، طالب المركز الأمريكي للذكاء الاصطناعي والسياسة الرقمية (غير ربحي) وقف استخدام تطبيق “جي بي تي-4” (GPT-4)، الإصدار الجديد لشركة تطوير الذكاء الاصطناعي “أوبن إيه آي” (OpenAI).
واتهم المركز شركة “أوبن إيه آي” بالخداع وانتهاك قانون “الممارسات التجارية غير العادلة” واللوائح التنظيمية المتعلقة بإرشادات منتجات الذكاء الاصطناعي.
وشدد على أن تطبيق “جي بي تي-4″ يقوم بـ”خداع المستخدمين ويشكل خطرا على الخصوصية والسلامة العامة”.
وزعم المركز أن منتجات الذكاء الاصطناعي للشركة “لا تفي بمعايير الشفافية والمساءلة” الواردة في توجيهات ولوائح لجنة التجارة الفيدرالية.
من جهته، قال توركباغ إنه “من المفترض أنه إذا تم استئناف قرار اتخذه الذكاء الاصطناعي، فيجب نقل ملف القضية إلى محكمة أعلى، ومعالجة هذه القضية من قبل الذكاء البشري”.
وأضاف: “حتى لو قبلنا بموثوقية الذكاء الاصطناعي، فيجب عدم إهمال العنصر البشري من منطلق قانوني وأخلاقي. وعليه يجب على الذكاء الاصطناعي إجراء مسح لقاعدة البيانات على نطاق واسع وفقا لأهمية القضايا التي يتم معالجتها”.
وأفاد توركباغ أن “هناك نقطة إيجابية في عمل الخوارزميات، حيث يمكن للذكاء الاصطناعي تطوير تسلسل هرمي يمكن تطبيقاته من إجراء مقارنات سريعة بين القضايا التي تتم معالجتها حاليا، قبل النظر في الاجتهادات القانونية التي جرى تطويرها سابقا من قبل الذكاء الاصطناعي أيضا”.
وأوضح أن الذكاء الاصطناعي “سيكرر (القرارات) التي اتخذها سابقا في المواقف المتشابهة، إلا أن قضايا هامة مثل تصرف ودور الذكاء الاصطناعي عند وقوع حوادث مرورية خطيرة في السيارات ذاتية القيادة، تبقى من أبرز المشاكل الأخلاقية البحتة التي يجري نقاشها في الأوساط العلمية والهندسية”.