الذكاء الاصطناعي يقوم بإنشاء قضايا قانونية مزيفة ويتسلل إلى قاعات المحاكم الحقيقية بنتائج كارثية

31

Michael Legg, Vicki McNamara

شهدنا تقنية الذكاء الاصطناعي تخلق صورًا مزيفة لمشاهير تحتوي على محتوى جنسي صريح. كما أن الذكاء الاصطناعي قد لعب دورًا في إنشاء الموسيقى وسيارات السباق اللاسائقة ونشر المعلومات الخاطئة، وغير ذلك من الأمور. ليس من المفاجئ بالتالي أن يكون للذكاء الاصطناعي تأثير قوي على أنظمتنا القانونية، فمن المعروف جيدًا أن المحاكم يجب أن تقرر في النزاعات بناءً على القانون، الذي يقدمه المحامون إلى المحكمة كجزء من قضية العميل. لذا فإن استخدام قوانين مزيفة تم اختراعها بواسطة الذكاء الاصطناعي في النزاعات القانونية يثير قلقًا كبيرًا. لا يُشكل هذا فقط مشكلات قانونية وأخلاقية، بل يهدد أيضًا بتقويض الثقة والاعتماد على الأنظمة القانونية العالمية.

كيف يتم إنشاء القوانين المزيفة؟

لا يوجد شك في أن الذكاء الاصطناعي العامل بشكل مُنْشِئ (generative AI) هو أداة قوية بإمكانها أن تحدث تحولًا في المجتمع، بما في ذلك العديد من جوانب النظام القانوني. ومع ذلك، يأتي استخدامه مع مسؤوليات ومخاطر. تُدرَّب المحامون على تطبيق المعرفة والخبرة المهنية بعناية، وعمومًا ليسوا من المغامرين الكبار. ومع ذلك، تم ضبط بعض المحامين الساذجين (والأشخاص الذين يمثلون أنفسهم في الدعاوى) من قبل الذكاء الاصطناعي. تُدرَّب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة. عندما يتم توجيهها من قِبَل المستخدم، يمكنها إنشاء محتوى جديد “نصي ومرئي وصوتي”.

على الرغم من أن المحتوى الذي يتم إنشاؤه بهذه الطريقة يمكن أن يبدو مقنعًا جدًا، إلا أنه قد يكون غير دقيق. يعود ذلك إلى محاولة نموذج الذكاء الاصطناعي “ملء الفجوات” عندما تكون بيانات التدريب غير كافية أو معيبة، ويشار إليه عادة باسم “الهلوسة“. في بعض السياقات، لا يُعَدُّ الهلوسة المتولدة بواسطة الذكاء الاصطناعي المنشئ مشكلة. بل يمكن اعتبارها مثالًا على الإبداع. ولكن إذا كان الذكاء الاصطناعي يُسبب هلوسة أو يُنشئ محتوى غير دقيق يُستخدم بعد ذلك في العمليات القانونية، فهذا يُشكِّل مشكلة – خاصةً عندما يترافق ذلك مع ضغوط الوقت على المحامين وعدم توفر الخدمات القانونية للعديد من الأشخاص.

يمكن أن يؤدي هذا التراكم القوي إلى الاستخفاف والاختصار في البحث القانوني وإعداد الوثائق، مما يتسبب في إشكاليات سمعة المهنة القانونية ونقص الثقة العامة في سير العدالة.

إنه يحدث بالفعل.

أشهر حالة قضية وهمية تم إنشاؤها بواسطة نموذج الذكاء الاصطناعي هي قضية “ماتا ضد أفيانكا” في الولايات المتحدة عام 2023، حيث قدم المحامون مذكرة تحتوي على استخراجات واستشهادات قضائية وهمية إلى محكمة في نيويورك. تمت أبحاث المذكرة باستخدام ChatGPT. غير أن المحامين، وبدون أن يكونوا على علم بقدرة ChatGPT على الهلوسة، فشلوا في التحقق مما إذا كانت القضايا موجودة فعلياً. وكانت النتائج كارثية. بمجرد كشف الخطأ، قضت المحكمة برفض قضية العميل، وفرض عقوبات على المحامين لتصرفهم بسوء نية، وفرضت عليهم وعلى مكتبهم غرامات مالية، وكشفت عن أفعالهم للرأي العام.

بالرغم من الترويج السلبي، لا تزال تظهر حالات أخرى مزيفة. أعطى مايكل كوهين، المحامي السابق لدونالد ترامب، محاميه الخاص أمثلة على حالات تم إنشاؤها بواسطة برنامج جوجل بارد، وهو نموذج آخر من الشات بوت الذكائي التوليدي. كان يعتقد أنها حقيقية “لكنها لم تكن كذلك”، وأن محاميه سيتحقق من صحتها “ولكنه لم يفعل ذلك”. قام محاميه بتضمين هذه الحالات في مذكرة تقدم بها إلى المحكمة الفيدرالية الأمريكية. ظهرت أيضًا حالات مزيفة في قضايا حديثة في كندا والمملكة المتحدة. إذا استمر هذا الاتجاه دون رقابة، فكيف يمكننا ضمان عدم تقويض الثقة العامة في النظام القانوني بسبب الاستخدام العشوائي للذكاء الاصطناعي التوليدي؟ فقد يؤدي فشل المحامين المتكرر في ممارسة الحذر الواجب عند استخدام هذه الأدوات إلى إضلال وازدحام المحاكم والإضرار بمصالح العملاء وتقويض سيادة القانون بشكل عام.

ما الذي يجري حيال ذلك؟

تتمثل الإجراءات المتخذة في معالجة هذه المسألة في استجابة المنظمات القانونية والمحاكم في مختلف أنحاء العالم بطرق متنوعة. عدة نقابات ومحاكم في ولايات متحدة أمريكية قد أصدرت توجيهات وآراء أو أوامر بشأن استخدام الذكاء الاصطناعي التوليد، تتراوح بين التبني المسؤول وحظر مطلق. كما وضعت جمعيات المحامين في المملكة المتحدة وكولومبيا البريطانية، ومحاكم نيوزيلندا مبادئ توجيهية.

في أستراليا، لجنة محامي نيو ساوث ويلز لديها دليل على الذكاء الاصطناعي التوليدي للمحامين. أصدرت جمعية المحامين في نيو ساوث ويلز والمعهد القانوني في فيكتوريا مقالات حول الاستخدام المسؤول وفقًا لقواعد سلوك المحامين.كثير من المحامين والقضاة، مثل الجمهور، سيكون لديهم بعض الفهم للذكاء الاصطناعي التوليدي ويمكنهم التعرف على حدوده وفوائده. ولكن هناك آخرون قد لا يكونون على دراية به. بلا شك، التوجيه يساعد. ولكن هناك حاجة لنهج إلزامي. لا يمكن للمحامين الذين يستخدمون أدوات الذكاء الاصطناعي التوليدي أن يعاملوها كبديل لممارسة حكمهم الخاص والاجتهاد، ويجب عليهم التحقق من دقة وموثوقية المعلومات التي يتلقونها.

في أستراليا، يجب أن تعتمد المحاكم ملاحظات ممارسة أو قواعد تحدد التوقعات عند استخدام الذكاء الاصطناعي التوليدي في الدعاوى القضائية. يمكن أن توجه قواعد المحكمة أيضًا المدعين الذين يمثلون أنفسهم، وتعكس للجمهور أن محاكمنا على علم بالمشكلة وتعمل على حلها. يمكن للمهنة القانونية أيضًا اعتماد توجيهات رسمية لتعزيز الاستخدام المسؤول للذكاء الاصطناعي من قبل المحامين. على الأقل، يجب أن يصبح الكفاءة التقنية متطلبًا في التعليم القانوني المستمر للمحامين في أستراليا. وضع متطلبات واضحة للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي التوليدي من قبل المحامين في أستراليا سيشجع على تبني مناسب ويعزز ثقة الجمهور في محامينا ومحاكمنا وإدارة العدالة العامة في هذا البلد.

اترك رد

Your email address will not be published.