مَن يتحمل مسؤوليةَ الأضرار الناجمة عن الذكاء الاصطناعي؟

18

تايلر كوين

لنتخيل سرقة بنك رُتبت من خلال رسائل البريد الإلكتروني والرسائل النصية. هل يتحمل مقدمو الخدمات أو المصنعون المسؤوليةَ؟ بالطبع لا، فأي عقاب أو عقوبات ستفرض على المجرمين.

وهل يجب تحميل الشركة التي طورت الذكاء الاصطناعي المسؤوليةَ عن الضرر الناجم عنه؟ يرى مختصون مثل عزرا كلاين ولوك ميلهاوزر وجوب اعتبارها مسؤولة، على الأقل كوسيلة لتشجيعهم على تطوير خدمات أكثر أماناً؟ وللأسف، سيكون من الصعب تطبيق هذه الخطة.

أحد الأسباب التي تدعو إلى ذلك ما يطلق عليه الاقتصاديون نظرية كوس التي تنص على أن المسؤولية يجب أن تقع على الوسيلة الأقل تكلفةً لتجنب الضرر. في حالة سرقة البنك، فإن مقدمي وسيلة الاتصالات أو التقنية ذات الغرض العام لا يشكلون الوسيلة الأقل تكلفة لتجنب الضرر.

ونظراً لأن التقنيات ذات الغرض العام (كالهواتف المحمولة)، وفيما يتعلق بهذه النقطة هناك أيضاً نماذج اللغات الكبيرة للذكاء الاصطناعي، والتي لها الكثير جداً من الاستخدامات العامة، لذا لا ينبغي للقانون أن يثبط همة مصنعيها بتحميلهم مسؤوليةً إضافيةً.

فهذا المنهج الذي تقترحه نظرية كوس ليس مثالياً لجميع القرارات، لكنه دليل أولي تقريبي لما هو فعال اقتصادياً. وعلى هذا النحو، إذا حصل مستخدم على معلومات طبية سيئة من خلال محرك جوجل، فإن شركة جوجل لا تتحمل المسؤولية، إذ اهتم محركها بترتيب نتائج طبية يمكن الاعتماد عليها رداً على أسئلة شائعة.

وبالنظر إلى التنوع، وإلى نماذج اللغات الكبيرة في الرد على أسئلة وعمليات الاستجواب المتكررة، فليس من الواضح ما إن كانت العقوبات القانونية يمكنها أن تجعل إجاباتها دقيقة. وكذلك، فإن الكتب والخرائط تقدم معلومات خطيرة لكثير من المجرمين والإرهابيين. لكن المسؤولية عن تلك الأنواع من الجرائم لا تقع بشكل عام على الناشرين.

وليس عملياً أن نطالب جميع المعلومات المنشورة بأن تكون توليفة مناسبة لما هو صحيح وغير ضار. أليس نتاج نموذج اللغات الكبيرة هو نوع من الكتب والخرائط جديد وأكثر قوة؟ (أو ماذا عن السؤال الأكثر إيلاماً: ما الحال إذا طلب من الاستعلام من نموذج اللغات الكبيرة طباعة الإجابة في شكل كتاب؟) وعلى مستوى أكثر عملية، فإن إسناد المسؤولية على خدمة الذكاء الاصطناعي لن تعمل في كثير من المناطق. فالنظام القانوني الأميركي، حتى ولو كان يعمل بشكل جيد، لا يكون قادراً دائماً على تحديد حجم الضرر الكافي في المعلومات.

فكثير من المعلومات الجيدة والمثمرة، مثل تعليم الناس كيف يولدون الطاقة ويستخدمونها، يمكن أن تستخدم أيضاً لأغراض شريرة. ومن المحتمل أن يؤدي إلقاء المسؤولية بشكل كامل على مقدمي الذكاء الاصطناعي بالنسبة لجميع الأنواع المختلفة للمنتج، والنتائج المترتبة على تلك المنتجات، إلى إفلاسهم.

فنماذج اللغات الكبيرة الحالية يمكن أن تقدم إلى تنويعة لانهائية تقريباً عن المحتوى عبر الكثير من اللغات، بما في ذلك الترميز والرياضيات. وإذا كان الإفلاس هو الهدف، فسيكون من الأفضل لمؤيدي المسؤولية الأكبر أن يقولوا ذلك.

يمكن أن يكون هناك حل بسيط لنماذج اللغات الكبيرة يمنع المستخدمين من الحصول على بعض أنواع المعلومات الضارة، وفي هذه الحالة قد تكون المسؤولية الجزئية أو المشتركة منطقية للحث على أمان إضافي. وإذا قررنا أن نمضي في هذا المسار، فيجب أن نتبنى توجهاً أكثر إيجابية بخصوص الذكاء الاصطناعي، ويجب أن تكون اللغة أكثر دعماً للذكاء الاصطناعي لا أن تقيده أو تؤدي إلى بطئه. في هذا السيناريو، قد تتبنى الشركات طوعاً الحلولَ المفيدة لمنتجاتها، لتحسين وضعها في السوق ولحمايتها من المزيد من الأعمال الانتقامية التنظيمية.

ولا يمكن بأي حال تقديم إجابات لجميع الأسئلة المتعلقة بالمسؤولية فيما يخص الذكاء الاصطناعي ونماذج اللغات الكبيرة، ولا يقدم منهج كوس دليلاً كاملاً للقرارات السياسية.

وعندما توفر خدمة مثل هذه التنويعة الكبيرة للمعلومات المفيدة، فليس من الضروري أن يكون المزيد من القيود التنظيمية أو إسناد المسؤولية الوسيلة لجعلها أكثر أماناً أو أكثر فائدة. يشعر البعض بالقلق لأن الذكاء الاصطناعي يمضي بسرعة كبيرة. وأرى أنه يجب علينا أيضاً المضي قدمًا بحذر عندما نفكر في القيود والقواعد الخاصة بالذكاء الاصطناعي.

المصدر: الاتحاد

اترك رد

Your email address will not be published.