الذكاء الاصطناعي يقوم بإنشاء قضايا قانونية مزيفة ويتسلل إلى قاعات المحاكم الحقيقية بنتائج كارثية

الذكاء الاصطناعي يقوم بإنشاء قضايا قانونية مزيفة ويتسلل إلى قاعات المحاكم الحقيقية بنتائج كارثية

Michael Legg, Vicki McNamara

شهدنا تقنية الذكاء الاصطناعي تخلق صورًا مزيفة لمشاهير تحتوي على محتوى جنسي صريح. كما أن الذكاء الاصطناعي قد لعب دورًا في إنشاء الموسيقى وسيارات السباق اللاسائقة ونشر المعلومات الخاطئة، وغير ذلك من الأمور. ليس من المفاجئ بالتالي أن يكون للذكاء الاصطناعي تأثير قوي على أنظمتنا القانونية، فمن المعروف جيدًا أن المحاكم يجب أن تقرر في النزاعات بناءً على القانون، الذي يقدمه المحامون إلى المحكمة كجزء من قضية العميل. لذا فإن استخدام قوانين مزيفة تم اختراعها بواسطة الذكاء الاصطناعي في النزاعات القانونية يثير قلقًا كبيرًا. لا يُشكل هذا فقط مشكلات قانونية وأخلاقية، بل يهدد أيضًا بتقويض الثقة والاعتماد على الأنظمة القانونية العالمية.

كيف يتم إنشاء القوانين المزيفة؟

لا يوجد شك في أن الذكاء الاصطناعي العامل بشكل مُنْشِئ (generative AI) هو أداة قوية بإمكانها أن تحدث تحولًا في المجتمع، بما في ذلك العديد من جوانب النظام القانوني. ومع ذلك، يأتي استخدامه مع مسؤوليات ومخاطر. تُدرَّب المحامون على تطبيق المعرفة والخبرة المهنية بعناية، وعمومًا ليسوا من المغامرين الكبار. ومع ذلك، تم ضبط بعض المحامين الساذجين (والأشخاص الذين يمثلون أنفسهم في الدعاوى) من قبل الذكاء الاصطناعي. تُدرَّب نماذج الذكاء الاصطناعي على مجموعات بيانات ضخمة. عندما يتم توجيهها من قِبَل المستخدم، يمكنها إنشاء محتوى جديد “نصي ومرئي وصوتي”.

على الرغم من أن المحتوى الذي يتم إنشاؤه بهذه الطريقة يمكن أن يبدو مقنعًا جدًا، إلا أنه قد يكون غير دقيق. يعود ذلك إلى محاولة نموذج الذكاء الاصطناعي “ملء الفجوات” عندما تكون بيانات التدريب غير كافية أو معيبة، ويشار إليه عادة باسم “الهلوسة“. في بعض السياقات، لا يُعَدُّ الهلوسة المتولدة بواسطة الذكاء الاصطناعي المنشئ مشكلة. بل يمكن اعتبارها مثالًا على الإبداع. ولكن إذا كان الذكاء الاصطناعي يُسبب هلوسة أو يُنشئ محتوى غير دقيق يُستخدم بعد ذلك في العمليات القانونية، فهذا يُشكِّل مشكلة – خاصةً عندما يترافق ذلك مع ضغوط الوقت على المحامين وعدم توفر الخدمات القانونية للعديد من الأشخاص.

يمكن أن يؤدي هذا التراكم القوي إلى الاستخفاف والاختصار في البحث القانوني وإعداد الوثائق، مما يتسبب في إشكاليات سمعة المهنة القانونية ونقص الثقة العامة في سير العدالة.

إنه يحدث بالفعل.

أشهر حالة قضية وهمية تم إنشاؤها بواسطة نموذج الذكاء الاصطناعي هي قضية “ماتا ضد أفيانكا” في الولايات المتحدة عام 2023، حيث قدم المحامون مذكرة تحتوي على استخراجات واستشهادات قضائية وهمية إلى محكمة في نيويورك. تمت أبحاث المذكرة باستخدام ChatGPT. غير أن المحامين، وبدون أن يكونوا على علم بقدرة ChatGPT على الهلوسة، فشلوا في التحقق مما إذا كانت القضايا موجودة فعلياً. وكانت النتائج كارثية. بمجرد كشف الخطأ، قضت المحكمة برفض قضية العميل، وفرض عقوبات على المحامين لتصرفهم بسوء نية، وفرضت عليهم وعلى مكتبهم غرامات مالية، وكشفت عن أفعالهم للرأي العام.

بالرغم من الترويج السلبي، لا تزال تظهر حالات أخرى مزيفة. أعطى مايكل كوهين، المحامي السابق لدونالد ترامب، محاميه الخاص أمثلة على حالات تم إنشاؤها بواسطة برنامج جوجل بارد، وهو نموذج آخر من الشات بوت الذكائي التوليدي. كان يعتقد أنها حقيقية “لكنها لم تكن كذلك”، وأن محاميه سيتحقق من صحتها “ولكنه لم يفعل ذلك”. قام محاميه بتضمين هذه الحالات في مذكرة تقدم بها إلى المحكمة الفيدرالية الأمريكية. ظهرت أيضًا حالات مزيفة في قضايا حديثة في كندا والمملكة المتحدة. إذا استمر هذا الاتجاه دون رقابة، فكيف يمكننا ضمان عدم تقويض الثقة العامة في النظام القانوني بسبب الاستخدام العشوائي للذكاء الاصطناعي التوليدي؟ فقد يؤدي فشل المحامين المتكرر في ممارسة الحذر الواجب عند استخدام هذه الأدوات إلى إضلال وازدحام المحاكم والإضرار بمصالح العملاء وتقويض سيادة القانون بشكل عام.

ما الذي يجري حيال ذلك؟

تتمثل الإجراءات المتخذة في معالجة هذه المسألة في استجابة المنظمات القانونية والمحاكم في مختلف أنحاء العالم بطرق متنوعة. عدة نقابات ومحاكم في ولايات متحدة أمريكية قد أصدرت توجيهات وآراء أو أوامر بشأن استخدام الذكاء الاصطناعي التوليد، تتراوح بين التبني المسؤول وحظر مطلق. كما وضعت جمعيات المحامين في المملكة المتحدة وكولومبيا البريطانية، ومحاكم نيوزيلندا مبادئ توجيهية.

في أستراليا، لجنة محامي نيو ساوث ويلز لديها دليل على الذكاء الاصطناعي التوليدي للمحامين. أصدرت جمعية المحامين في نيو ساوث ويلز والمعهد القانوني في فيكتوريا مقالات حول الاستخدام المسؤول وفقًا لقواعد سلوك المحامين.كثير من المحامين والقضاة، مثل الجمهور، سيكون لديهم بعض الفهم للذكاء الاصطناعي التوليدي ويمكنهم التعرف على حدوده وفوائده. ولكن هناك آخرون قد لا يكونون على دراية به. بلا شك، التوجيه يساعد. ولكن هناك حاجة لنهج إلزامي. لا يمكن للمحامين الذين يستخدمون أدوات الذكاء الاصطناعي التوليدي أن يعاملوها كبديل لممارسة حكمهم الخاص والاجتهاد، ويجب عليهم التحقق من دقة وموثوقية المعلومات التي يتلقونها.

في أستراليا، يجب أن تعتمد المحاكم ملاحظات ممارسة أو قواعد تحدد التوقعات عند استخدام الذكاء الاصطناعي التوليدي في الدعاوى القضائية. يمكن أن توجه قواعد المحكمة أيضًا المدعين الذين يمثلون أنفسهم، وتعكس للجمهور أن محاكمنا على علم بالمشكلة وتعمل على حلها. يمكن للمهنة القانونية أيضًا اعتماد توجيهات رسمية لتعزيز الاستخدام المسؤول للذكاء الاصطناعي من قبل المحامين. على الأقل، يجب أن يصبح الكفاءة التقنية متطلبًا في التعليم القانوني المستمر للمحامين في أستراليا. وضع متطلبات واضحة للاستخدام المسؤول والأخلاقي للذكاء الاصطناعي التوليدي من قبل المحامين في أستراليا سيشجع على تبني مناسب ويعزز ثقة الجمهور في محامينا ومحاكمنا وإدارة العدالة العامة في هذا البلد.

Related Posts

“مايكروسوفت” تكشف عن “MAI-Image-1” أول مولد صور مطوّر داخليًا بتقنية الذكاء الاصطناعي

AI بالعربي – متابعات كشفت شركة مايكروسوفت عن نموذجها الجديد لتوليد الصور بالذكاء الاصطناعي “MAI-Image-1″، ليكون أول نموذج من تطويرها الداخلي بالكامل، ويُعد خطوة رئيسية ضمن خطتها لتقليل اعتمادها على…

البيانات السطحية تجعل الذكاء الاصطناعي أقل دقة وأكثر عرضة للأخطاء

AI بالعربي – متابعات حذّر باحثون من أن النماذج اللغوية الكبيرة قد تصبح “أغبى” وأقل دقة عندما تُدرَّب على كميات هائلة من المحتوى منخفض الجودة المنتشر عبر شبكات التواصل الاجتماعي،…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 88 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 240 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 331 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 340 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 293 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 330 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟