من يتحمل اللوم عندما يرتكب الذكاء الاصطناعي أخطاء؟

10

Michael Duffy

القليل من الصناعات تبقى دون أن تمسها إمكانية التحول من خلال الذكاء الاصطناعي، أو على الأقل الضجة المحيطة به.

بالنسبة للأعمال، يتجاوز وعد التكنولوجيا مجرد كتابة رسائل البريد الإلكتروني. يتم استخدامها بالفعل لأتمتة مجموعة واسعة من العمليات والتفاعلات التجارية، وتدريب الموظفين، ومساعدة الأطباء في تحليل البيانات الطبية.

المنافسة بين مختلف مبدعي نماذج الذكاء الاصطناعي، بما في ذلك OpenAI وMeta وAnthropic وGoogle، ستستمر في دفع التحسين السريع.

يجب أن نتوقع أن تصبح هذه الأنظمة أكثر ذكاءً مع مرور الوقت، مما يعني أننا قد نبدأ في الوثوق بها بمسؤوليات متزايدة.

السؤال الكبير يصبح: ماذا لو حدث خطأ كبير؟ من المسؤول في النهاية عن القرارات التي تتخذها الآلة؟

تناول بحثي هذه المشكلة تحديدًا. من المقلق أن الأطر القانونية الحالية قد لا تكون كافية.

لقد تجنبنا الكارثة – حتى الآن

مع تقدم أي تقنية، من المحتم حدوث أخطاء. لقد رأينا هذا بالفعل مع الإنترنت، الذي قدم فوائد هائلة للمجتمع، لكنه خلق أيضًا مجموعة من المشاكل الجديدة، مثل: إدمان وسائل التواصل الاجتماعي، وتسرب البيانات، وارتفاع معدل الجرائم الإلكترونية.

حتى الآن، يبدو أننا تجنبنا كارثة إنترنت عالمية. ومع ذلك، فإن انقطاع CrowdStrike في يوليو، الذي أوقف الأعمال والعديد من الخدمات بسرعة، يذكرنا بمدى اعتمادنا على التكنولوجيا، وكيف يمكن للأمور أن تنهار بسرعة في مثل هذه الشبكة المتشابكة.

مثل الإنترنت في بداياته، يعد الذكاء الاصطناعي التوليدي المجتمع بفوائد هائلة، ولكنه قد يحمل بعض السلبيات الكبيرة وغير المتوقعة.

بالتأكيد لم تكن التحذيرات قليلة. في أقصى الحالات، يعتقد بعض الخبراء أن الذكاء الاصطناعي الخارج عن السيطرة قد يشكل تهديدًا على مستوى “نووي”، ويعرض البشرية لخطر وجودي كبير.

أحد المخاطر الأكثر وضوحًا هو أن “الجهات الخبيثة”، مثل جماعات الجريمة المنظمة والدول المارقة، تستخدم التكنولوجيا لإحداث ضرر متعمد. يمكن أن يشمل ذلك استخدام التزييف العميق والمعلومات المضللة للتأثير على الانتخابات أو تنفيذ جرائم إلكترونية على نطاق واسع. لقد رأينا بالفعل أمثلة على مثل هذا الاستخدام.

الأقل دراماتيكية، ولكن لا تزال مشكلة كبيرة، هي المخاطر التي تنشأ عندما نعهد بالمهام والمسؤوليات المهمة إلى الذكاء الاصطناعي، خاصة في إدارة الأعمال والخدمات الأساسية الأخرى. ليس من المستبعد تصور انقطاع تقني عالمي في المستقبل ناتج عن كود حاسوبي مكتوب ومُرسل بالكامل بواسطة الذكاء الاصطناعي.

عندما تتخذ هذه الأنظمة قرارات مستقلة تسبب ضررًا غير مقصود، سواء كان خسارة مالية أو إصابة فعلية، فمن نعتبره مسؤولًا؟

قوانيننا ليست مستعدة

من المقلق أن تكون نظريات المسؤولية القانونية الحالية غير مجهزة لهذه الواقع الجديد.

ذلك لأن النظريات الحالية، باستثناء بعض قوانين مسؤولية المنتجات، تتطلب عادةً وجود خطأ من خلال قصد، أو على الأقل إهمال يمكن إثباته من قبل شخص معين.

على سبيل المثال، تتطلب دعوى الإهمال أن يكون الضرر متوقعًا بشكل معقول وأن يكون ناجمًا بالفعل عن سلوك المصمم أو المصنع أو البائع أو أي شخص آخر قد يكون المدعى عليه في قضية معينة.

لكن مع استمرار تقدم أنظمة الذكاء الاصطناعي وزيادة ذكائها، فمن المؤكد أنها ستقوم بأشياء قد لا تكون نتائجها متوقعة تمامًا من قبل مصنعيها أو مصمميها، وما إلى ذلك.

 

هذا “السلوك الناشئ” قد يحدث لأن الذكاء الاصطناعي أصبح أكثر ذكاءً من مبدعيه. ولكنه قد يعكس أيضًا دوافع أو أهدافًا ذاتية الحماية والمصلحة من قبل أنظمة الذكاء الاصطناعي المتقدمة.

بحثي الخاص يسعى لتسليط الضوء على مشكلة كبيرة تلوح في الأفق في كيفية تقييمنا للمسؤولية.

في حالة افتراضية يتسبب فيها الذكاء الاصطناعي في ضرر كبير، قد يتمكن المبدعون البشريون والشركات من حماية أنفسهم من المسؤولية الجنائية أو المدنية.

يمكنهم فعل ذلك بالادعاء أن الضرر لم يكن متوقعًا بشكل معقول منهم، أو أن الأفعال غير المتوقعة للذكاء الاصطناعي قطعت سلسلة السببية بين سلوك المُصنّع والخسارة أو الضرر الذي لحق بالضحايا.

هذه يمكن أن تكون دفاعات ممكنة ضد الإجراءات الجنائية أو المدنية.

وكذلك، يمكن أن تكون حجة الدفاع الجنائي أن “عنصر الخطأ” في الجريمة، مثل النية أو المعرفة أو التهور أو الإهمال، لم يكن متوافقًا مع “العنصر المادي” الضروري، الذي في هذه الحالة ارتكبته الآلة.

نحتاج إلى الاستعداد الآن

قوى السوق تدفع الأمور بسرعة في مجال الذكاء الاصطناعي، ولكن الوجهة النهائية غير مؤكدة.

قد يتبين أن القانون العام الذي لدينا الآن، والذي تطور عبر المحاكم، مرن بما يكفي للتعامل مع هذه المشاكل الجديدة. لكن من الممكن أيضًا أن نجد القوانين الحالية غير كافية، مما قد يضيف شعورًا بالظلم إلى أي كوارث مستقبلية.

سيكون من المهم التأكد من أن الشركات التي استفادت أكثر من تطوير الذكاء الاصطناعي تتحمل أيضًا مسؤولية تكاليفه وعواقبه إذا حدثت مشاكل.

يجب أن يكون التحضير لمعالجة هذه المشكلة أولوية للمحاكم وحكومات جميع الدول، وليس أستراليا فقط.

المصدر: The Conversation

 

اترك رد

Your email address will not be published.