من المسؤول في الذكاء الاصطناعي

12

د. زياد بن عبدالعزيز آل الشيخ

منذ أن طرح إسحاق أسيموف قوانين الروبوت الثلاثة في قصة (التجول) التي نشرت عام 1942م اتسع الكلام حول أخلاقيات الذكاء الاصطناعي مع تطور تطبيقاته، نظر الخيال العلمي إلى الروبوت باعتباره ممثلا للذكاء الاصطناعي، فلم يصور تطبيقاته الأخرى التي اتسعت وتشعبت في المجتمع كما هو حاصل اليوم.

مع استقلال تطبيقات الذكاء الاصطناعي عن فكرة الروبوت، نشأت مسائل جديدة لم تؤخذ بالاعتبار، فإذا كانت قوانين أسيموف تتحدث عن مسؤولية الروبوت وعلاقته بالإنسان والمجتمع، فإن المنظور الجديد يبحث في مسائل أدق في علاقة الذكاء الاصطناعي بالمجتمع، منها سؤال المسؤولية. يتضمن سؤال المسؤولية الاعتراف ضمنا بإمكانية الخطأ، وهو ما يبدو غائبا عن الخيال العلمي في بداياته على الأقل. التصور الأكثر واقعية، وهو ما عززته التجربة، أن أخطاء الإنسان تنتقل إلى الذكاء الاصطناعي في صور مختلفة، ابتداء من الخطأ البرمجي البسيط إلى الخطأ المعرفي الانحيازي.

سؤال المسؤولية مرتبط بمن يتحمل تبعات الضرر الذي يأتي نتيجة خطأ يرتكبه الذكاء الاصطناعي؟ هل يتحمل المسؤولية المستخدم أم المطور، أم تتحمله الجهة التي دربت نموذج الذكاء الاصطناعي بالبيانات؟.. تحديد المسؤولية أمر معقد في كثير من الأحيان لارتباط تطوير الذكاء الاصطناعي بسلسلة طويلة من الخطوات التي تشترك فيها أطراف عديدة. فإضافة إلى تعقيدات التقنية، وربما بسببها، تخلفت قواعد الأنظمة القانونية والتشريعات عن اللحاق بالتطور السريع الذي نشهده اليوم، لذلك نلحظ اهتمام الحكومات بتقليص الفجوة التشريعية التي اتسعت مؤخرا باتساع المجال التطبيقي للذكاء الاصطناعي.

التحدي الذي يواجه المشرعين أن نماذج الذكاء الاصطناعي تعد صندوقا أسود في كثير من الحالات فلا يعرف تفاصيلها حتى المتخصصين، يشهد مطورو نماذج الذكاء الاصطناعي في مناسبات عديدة باندهاشهم لما تنفذه التطبيقات في حالات تتصرف فيها بطرق لم تكن في الحسبان، وإذا أضفنا لتعقيدات النماذج نفسها تعقيدات البرمجيات التي طورت بها، وهي برمجيات رغم كل التقدم التقني تطور بمنهج بدائي قديم؛ سنجد صعوبة في تحديد موضع الخلل بدقة فضلا أن يحدد المسؤول.

إذا تجاوزنا التحديات التقنية سواء عرف المسؤول أم لم يعرف، تواجه التشريعات مشكلات في تعريف نوع الخطأ من منطلق أخلاقي صرف، إذا تعلق الأمر بانتهاك الخصوصية حيث يختلف حول الخصوصية نفسها وما يعد انتهاكا لها بحق أو بغير حق، كما تتسع الأسئلة الأخلاقية باتساع التقنية، فمع ظهور تطبيقات الدردشة مثلا، هل يحق للتطبيق أن يخفي هويته عن الإنسان الذي يتحدث إليه فلا يدري أنه آلة؟

الخيال العلمي الذي صور الذكاء الاصطناعي قبل أن يرى حقيقة تعرض للمشكلات الأخلاقية والاجتماعية ولم يعر اهتماما مماثلا للمشكلات التقنية نفسها، ومع التطبيقات التي نراها اليوم، يتبين لنا أثر صناعة التقنية نفسها على الجوانب القانونية والأخلاقية التي يصعب تصورها دون فهم عميق للتقنية نفسها.

المصدر: الرياض

اترك رد

Your email address will not be published.