تقارير

الذكاء الاصطناعي.. نضوج علمي بمعضلات أخلاقية

AI بالعربي – متابعات

مع تزايد استخدام تقنيات الذكاء الاصطناعي في قطاعات حيوية تمس حياتنا بصورة مباشرة مثل الصحة والتعليم والتنقل والزراعة وحتى الفنون والفضاء، يعتقد الخبراء بإمكانية تطوير ذكاء اصطناعي خارق، يصل إلى حد التحكم بعواطف ودوافع الشعوب وبالتالي واقعهم. فهل سنكون نحن من يرسم واقع ومستقبل أنظمة الذكاء الاصطناعي أم العكس؟ والسؤال الأكثر إلحاحًا، هل يمكن ضمان أن يتم تسخير الذكاء الاصطناعي مسؤولية أخلاقية لتحسين حياة البشر؟

دفع التقدم السريع للذكاء الاصطناعي في السنوات الماضية مجموعات من الخبراء إلى المطالبة بضرورة تطوير ضمانات لحماية البشرية من مخاطر الذكاء الاصطناعي. ولخطورة الموضوع، تعمل اليوم العديد من الهيئات الحكومية والمنظمات المدنية والشركات الخاصة ومراكز الفكر ومجموعات البحث، لتطوير مبادئ تحكم توجهات الذكاء الاصطناعي مثل «إعلان برشلونة»، و«إعلان مونتريال»، و«مبادئ غوغل»، و«مبادئ مايكروسوف».

ومن تلك المنظمات معهد مستقبل الحياة، وهو منظمة بحثية وتوعية غير ربحية تأسست في بوسطن الأمريكية في 2014، بهدف رصد المخاطر الوجودية التي تهدد البشرية. وأسس المعهد عالم الكونيات في معهد ماساتشوستس للتكنولوجيا ماكس تيغمارك، والشريك المؤسس لتطبيق «سكايب» جان تالين وعالمة الأبحاث في مركز «ديب مايند» فيكتوريا كراكوفنا. وعمل المعهد مع الباحثين والمطورين في مجال الذكاء الاصطناعي وكذلك العلماء من العديد من التخصصات لإنشاء المبادئ التوجيهية الـ 23 التي يشار إليها الآن باسم «مبادئ أسيلومار»، والتي تهدف إلى أن تتطور تكنولوجيات الذكاء الاصطناعي على نحو موثوق به وآمن وشامل.

وتشير دراسة حديثة لمعهد مستقبل الحياة إلى أنه من غير المرجح أن يظهر الذكاء الاصطناعي مشاعر إنسانية مثل الحب أو الكراهية، وأنه لا يوجد سبب لتوقع أن يتعمد الذكاء الاصطناعي الخير أو الشر بشكل تلقائي. ولكن يرجح الخبراء في المعهد بالمقابل سيناريوهين يمكن من خلالهما أن يتحول الذكاء الاصطناعي إلى خطر داهم: ويتمثل السيناريو الأول في أن يقوم البشر ببرمجة الذكاء الاصطناعي للقيام بشيء مدمر، مثل الأسلحة «المستقلة» أو الذاتية وهي أنظمة ذكاء اصطناعي مبرمجة للقتل وقادرة على أن تُحدث بسهولة إصابات جماعية في يد الشخص الخطأ. علاوة على ذلك، يمكن أن يؤدي سباق التسلح بالذكاء الاصطناعي عن غير قصد إلى حرب ذكاء اصطناعي تؤدي أيضاً إلى خسائر جسيمة. ولتجنب «الخسارة» أمام الطرف الآخر، يمكن تصميم تلك الأسلحة، بحيث يكون من الصعب للغاية إيقافها، ويمكن للبشر بالتالي أن يفقدوا بكل سهولة السيطرة في ذلك الموقف. هذا الخطر موجود حتى مع الذكاء الاصطناعي «الضيق» – أو المحدود، ولكنه ينمو مع زيادة مستويات الذكاء الاصطناعي والاستقلالية.

وأما السيناريو المخيف الآخر فيتمثل في برمجة الذكاء الاصطناعي للقيام بشيء مفيد، لكنه قد يقوم بتطوير طريقة مدمرة لتحقيق هدفه، وهو ما يمكن أن يحدث هذا عندما نفشل في مواءمة أهداف الذكاء الاصطناعي تماماً مع أهدافنا، وهو ما يعتبر أمراً صعباً للغاية. فمثلاً، إذا طلبت من سيارة ذكية مطيعة أن تأخذك إلى المطار في أسرع وقت ممكن، فقد تصل في «أسرع وقت ممكن»، ولكن ستصل بمطاردة مروحيات الشرطة وربما مغمى عليك من السرعة. فالسيارة لم تفعل «ما تريده»، وهو الوصول بشكل آمن على الأقل، ولكنها فعلت ما طلبته حرفياً. وإذا ما تم تكليف نظام فائق الذكاء بمشروع هندسة جيولوجية طموح، فقد يتسبب ذلك في إحداث فوضى في نظامنا البيئي كأثر جانبي، وينظر إلى المحاولات البشرية لإيقافه على أنها «تهديد» يجب مواجهته.

استفادة

وقال معالي عمر بن سلطان العلماء وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بُعد: «إنّ حكومة الإمارات تولي أهمية كبيرة لضمان الاستخدام الأمثل لحلول وإمكانات الذكاء الاصطناعي، وتتبنى ضمن توجهاتها للمستقبل تحقيق أقصى استفادة من هذه التكنولوجيا المتطورة، مع الالتزام الكامل بتوظيفها بمسؤولية أخلاقية عالية محورها الإنسان وخدمة المجتمع».

ولتحقيق ذلك، عملت حكومة الإمارات من خلال مجلس الإمارات للذكاء الاصطناعي والبلوك تشين على تشكيل لجنة فرعية مختصة لضمان الحوكمة والتنظيم الفعال لتكنولوجيا الذكاء الاصطناعي. ومن ضمن المبادرات المتعلقة بأخلاقيات تطبيقات الذكاء الاصطناعي التي عمل عليها المجلس: أداة التقييم الذاتي لتطبيقات الذكاء الاصطناعي، والتي تم إطلاقها على مستوى حكومة دبي، ويجري العمل على تطويرها وإطلاقها على مستوى الحكومة الاتحادية.

مبادئ

وأضاف: «يرتكز هذا التقييم على 4 مبادئ أساسية هي الشمول: ويعني أن تشمل منافع الذكاء الاصطناعي كافة أفراد المجتمع، وأن تُطبق نظم الحوكمة على هذه التكنولوجيا عالمياً، مع احترام كرامة الأفراد وحقوقهم وخصوصيتهم. والإنسانية: أن يكون الذكاء الاصطناعي نافعاً للبشرية وأن ينسجم مع القيم الإنسانية، على المدى القصير والمدى الطويل أيضاً. والأمان: أن تكون أنظمة الذكاء الاصطناعي آمنة، وأن تسخر في خدمة الإنسانية. والأخلاقيات: أن تكون أنظمة الذكاء الاصطناعي عادلة وشفافة وخاضعة للمساءلة وقابلة للفهم. وإضافة إلى هذه المبادئ والمعايير، يشارك مجلس الإمارات للذكاء الاصطناعي والبلوك تشين ممثلاً بلجنته الفرعية لخبراء الذكاء الاصطناعي بالدولة في تطوير وصياغة المعايير العالمية، عبر المنظمة العالمية للمعايير، مع نخبة من الخبراء».

ولفت إلى أن اللجنة تعمل حالياً على تطوير معايير تقنية للذكاء الاصطناعي، تشتمل على معايير «الذكاء الاصطناعي القابل للشرح» الذي يعد من أهم المواضيع التقنية التي تسمح بالتحقق من مدى توافق نماذج الذكاء الاصطناعي مع المبادئ الأساسية لاستخدامه. وقد أسهمت اللجنة بدور مهم في تطوير هذه المعايير، ومن المتوقع أن يتم اعتمادها في الدولة فور اعتمادها من اللجنة التقنية التابعة للمنظمة العالمية للمعايير، لضبط وضمان توظيف تطبيقات الذكاء الاصطناعي بالشكل الأمثل.

حماية البيانات

وأما على صعيد البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي، وهي أحد أهم العناصر الممكنة لهذه التطبيقات، فقد أصدرت الإمارات «قانون حماية البيانات الشخصية»، الهادف لحماية بيانات الأفراد المتوفرة لدى الشركات من الاستخدامات المخلة بالخصوصية في تدريب نماذج الذكاء الاصطناعي وغيرها من الاستخدامات.

ويعمل مكتب الذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد، بالتعاون مع جامعة أوكسفورد على تدريب موظفي الوزارات والجهات الحكومية الاتحادية والمحلية من خلال «برنامج الذكاء الاصطناعي»، على تطوير قدرة المتدربين على تحليل المخاطر الأمنية والأخلاقية التي قد تنتج عن التبني الخاطئ لتقنيات الذكاء الاصطناعي.

قوانين

وقال غسان أبو عجمية مدير التخطيط الاستراتيجي بشركة «تحالف الإمارات للحلول التقنية»: «إنّ العلوم في بدايتها تكون بسيطة، ولكن مع تطور تلك العلوم ومنها الذكاء الاصطناعي تحتاج المجتمعات إلى قوانين وتشريعات لتنظيم تعاملاته، وما حدث في حياتنا الرقمية أن التطورات أسرع من التشريعات، وبدأت الشركات العملاقة تفرض طريقتها في التعامل مع البيانات».

ولفت أبو عجيمة إلى أن أغلب تلك الشركات والمالكة للمنصات التي تضم ملايين البيانات هي شركات أمريكية، ولذلك بدأ الاتحاد الأوروبي مشواره في التصدي لهذه التوجهات من خلال إصداره قبل أيام قانون الخدمات الرقمية، الذي يهدف إلى التخلص من المحتوى الضار أو السام على شبكة الإنترنت، وبموجب هذا القرار ستكون المنصات مسؤولة عن الخوارزميات الخاصة بها، والإفصاح عنها بكل شفافية، ومطلوب منها تقييم المخاطر في المحتوى والتخفيف منه لحماية المستخدمين، ومن ضمن ذلك منع الانتشار السريع للمعلومات المضللة، ومكافحة خطاب الكراهية، وتجنّب عرض المنتجات غير الآمنة في الأسواق. وقبل ذلك بحوالي شهر أعلن قانون الأسواق الرقمية، بهدف الحد من الهيمنة الواسعة للشركات على الاقتصاد الرقمي، وكانت بداية الاتحاد مع القوانين عندما أصدر نظام حماية خصوصية البيانات في عام 2018.

وأضاف: «لا شك أن مجموعة القرارات التي أصدرها الاتحاد الأوروبي، يمكن أن تشكل أرضية تساعد في رسم إطار قانوني للتشريعات يمكن البناء عليه وتطويعه وفقاً للقيم والأخلاقيات التي تناسب كل دولة أو على مستوى المنطقة، وهذا لا شك سوف يسهم في تحسين كيفية استخدام بيانات المستخدمين والحد من استغلالها من قبل شركات تقنية المعلومات العملاقة التي تمتلك كبريات منصات التواصل الاجتماعي، والتي ربما في المستقبل القريب يصبح القرار، في بعض منها، بيد شخص واحد».

خطوة استباقية

وقال محمد أمين، نائب الرئيس الأول لشركة دِل تكنولوجيز في الشرق الأوسط أن العديد من الشركات تعتمد اليوم على تقنيات الذكاء الاصطناعي للحصول على إجابات دقيقة وسريعة حول المسائل الصعبة التي قد تواجهها. وأضاف: نحن اليوم نعتمد على نماذج الذكاء الاصطناعي أكثر فأكثر لاتخاذ قرارات مختلفة سواء بخصوص الموافقة على طلبات القروض المصرفية أو مساعدة العملاء في اتخاذ قرار بشأن وجهة عطلتهم المقبلة، فهذه التقنية قادرة على حساب أدق التفاصيل والفوارق. ولذلك نحن بحاجة للتأكد من أن تكون أنظمة الذكاء الاصطناعي أخلاقية وغير قابلة للفساد، وأن يكون الناس قادرين على فهم كيفية اتخاذ القرارات عبر هذه التقنية.

وتابع: لا شكّ بأن الذكاء الاصطناعي لديه القدرة على حساب كميات هائلة من البيانات وتحسين عمليات اتخاذ القرار، ولكن لا يمكن أن نغفل عن حقيقة أن القرارات التي تتخذها أنظمة الذكاء الاصطناعي تؤثر في حياة البشر، فهي آلة يمكنها حاليا استخدام البيانات الضخمة لإنشاء معلومات أفضل من البشر، لكنها لا تفهم السياق، وليس لديها عواطف أو أخلاقيات، وغير قادرة على التفكير خارج الصندوق. وحين لا يكون هناك ضوابط واضحة وموازنة سليمة في عمل هذه الأنظمة، فقد تؤثر سلباً في تنوع أفكارنا وتميّزنا، من خلال معاملتنا كمجموعة متجانسة، وتقديم محتوى منظم فقط، لا يحترم اختلافاتنا.

لقد وُصف الذكاء الاصطناعي بأنه أهم تقنية قيد التطوير اليوم. ومع ذلك، إننا بحاجة لوضعه تحت الإشراف المناسب من الحكومات والجهات التنظيمية، التي سيكون لها دور أساسي في مساعدة الشركات على التعامل مع الجانب الأخلاقي وأوجه القصور في هذه الأنظمة.

تحديات

وقال المحامي مجاهد السباعي الشريك في «كلداري محامون ومستشارون قانونيون»: «إن التحديات الأخلاقية الخاصة بالذكاء الصناعي لا تقتصر على تنظيم جمع وتداول البيانات الشخصية، وإنما وضع ضوابط تكفل منع توظيف الذكاء الصناعي لأخذ القرارات أو إخضاع أشخاص معينين أو إلزامهم أو التأثير فيهم أو في قراراتهم من خلال معالجة بياناتهم الشخصية، سواء كان ذلك دون موافقتهم أو بشكل قد يجحف بحقوقهم أو يؤثر فيها».

وأضاف: «إنّ تساؤلات قانونية وأخلاقية عديدة متعلقة باستخدام الذكاء الصناعي تثار أيضاً حول آلية صنع القرارات أو تصحيحها إن كانت خاطئة أو تحديد المسؤول عنها خاصة في حال وقوع الأضرار، سواء كانت مادية أو معنوية، كما أنها قد تأخذ قرارات متحيزة أو تؤدي إلى الظلم أو التمييز بكافة أشكاله أو إلى احتكار البيانات الضخمة التي قد يتم جمعها عن الأشخاص أو المؤسسات».

وأردف: «للتعامل مع هذه التحديات يجب أن تتضافر جهود جميع الأطراف المعنية من حكومات إلى أفراد، وذلك للوقوف على الآثار المباشرة أو طويلة المدى للذكاء الاصطناعي، لوضع الاستراتيجيات والأنظمة اللازمة لضمان توظيفه من خلال نهج إنساني مراعٍ للمبادئ والقيم الإنسانية التي تقوم عليها مجتمعاتنا وحقوق الأفراد فيها دون التأثير في تلك القيم بشكل سلبي أو إعادة برمجتها، خاصة من قبل جهات أو أشخاص غريبين عنها، سواء كان ذلك لاعتبارات سياسية أو اقتصادية أو أمنية».

المصدر
البيان

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى