كيف يستعد العالم لمجابهة تحديات الذكاء الاصطناعي قانونيًا واجتماعيًا؟

22

AI بالعربي – خاص

يحظى الذكاء الاصطناعي باهتمام واسع باعتباره أحد أبرز المجالات التقنية التي تشهد تطورًا، مع انتشار تطبيقاته في مختلف المجالات من الصناعة إلى الرعاية الصحية وغيرها. ومع تزايد استخدام هذه التقنيات في الحياة اليومية، تبرز أخلاقيات الذكاء الاصطناعي كموضوع مهم يجب مراعاته في هذه الاستخدامات.

على هذا النحو برز الحديث عن أخلاقيات الذكاء الاصطناعي في الأوساط الرسمية، وتعني مجموعة القيم والمبادئ الأخلاقية التي يجب توخيها عند استخدام التقنيات الذكية، والتي تشمل مسائل أخلاقية مهمة تتعلق بالخصوصية والأمان، ومناهضة التمييز، والمسؤولية الاجتماعية، والشفافية، والمساواة والعدالة.

من الأمور المهمة التي يجب إدراكها في هذا الصدد أن الاقتصاد الرقمي ينطوي على تحديات وفرص مجتمعية واقتصادية وبيئية مهمة، وهو ما يعني أن التصدي للمخاطر والشواغل الأخلاقية يجب ألا يعيق الابتكار والتطوير.

الخصوصية والأمان
مسألة الخصوصية والأمان تبقى واحدة من الشواغل الرئيسية عند الحديث عن استخدام التكنولوجيا الذكية. فعلى الرغم من أن التقنية الحديثة توفر أدوات فعالة لجمع وتحليل البيانات، فإن ذلك يتطلب التأكد من أن هذه البيانات تحفظ بشكل آمن، ولا تتم مشاركتها دون إذن صاحبها.

على هذا النحو، ينبغي للمطورين والشركات المسؤولة عن تقنيات الذكاء الاصطناعي ضمان حماية خصوصية المستخدمين والحفاظ على سرية بياناتهم، وأن يتم تشفير البيانات وتخزينها في مواقع آمنة، وعدم مشاركتها مع أي جهة أخرى، إلا بموافقة صريحة من الشخص المعني، فضلاً عن تطبيق إجراءات أمنية صارمة لحماية البيانات من الاختراق والاستغلال الضار.

التمييز والتعصب
الأمر الآخر الذي يشغل حيزًا من المناقشة، هو ضرورة مراعاة مسألة التمييز والتعصب عند تطوير التقنيات الذكية. فعندما يتم تدريب النماذج الحاسوبية بشكل غير صحيح، قد تنتج نتائج غير عادلة وتمييزية ضد فئات معينة من المجتمع. وللحد من هذا التمييز، يجب على المطورين اختبار النماذج الحاسوبية بشكل دوري وضمان تدريبها بشكل عادل ومتوازن، وتجنب استخدام بيانات غير متوازنة أو تحمل تمييزات قائمة؛ إضافة إلى مراجعة الأنظمة الحاسوبية بشكل دوري للتحقق من عدم وجود أخطاء في البرمجة أو التدريب تؤدي إلى التمييز والتعصب، والعمل على تطوير تقنيات الذكاء الاصطناعي التي تضمن العدالة والمساواة وتتفادى التمييز.

المسؤولية الاجتماعية
أمَّا بالنسبة إلى مسألة المسؤولية الاجتماعية، فإنَّ دعوات متكررة من المنظمات والهيئات الدولية تطالب بضرورة استخدام التقنيات الذكية بشكل لا يؤثر سلبًا على المجتمع؛ وهو ما يفرض على المطورين والمستخدمين الالتزام بمعايير أخلاقية محددة، ومراقبة استخدام التقنيات الذكية بطريقة مسؤولة ومفيدة للمجتمع.

إضافة إلى ذلك، ينبغي تطوير تقنيات الذكاء الاصطناعي بأسلوب يتجنب الإضرار بالمجتمع والبيئة، وأن تكون النتائج الناتجة عنها شفافة ومفهومة للجميع، وتوضيح كيفية عمل التقنيات الذكية، وكيفية تحليل البيانات واتخاذ القرارات، وأن تكون هذه المعلومات متاحة للجميع بشكل واضح وشفاف.

المساواة والعدالة
ثمَّة تخوف آخر يشغل بال المتابعين، يتعلق بمسألة المساواة والعدالة، وهو ما يتطلب تفادي التمييز والتفرقة في مجالات العمل والتعليم والصحة وغيرها، وتدريب نماذج الذكاء الاصطناعي على مجموعة متنوعة من البيانات والمعلومات، وتجنب استخدام بيانات تحمل تحيزات قائمة، أو استخدام تقنيات تؤدي إلى التمييز والتفرقة بين الأشخاص بسبب العرق، أو الجنس، أو الديانة، أو الجنسية، أو الإعاقة، أو أي خصائص أخرى.

تقنية Deepfakes
في حين تظل تقنية Deepfakes أحد أكثر الأمور المثيرة للقلق لدى استخدام مجال الذكاء الاصطناعي، خاصة عند استخدامها في الجريمة والإرهاب؛ إذ يتم إنشاء مقاطع فيديو بواسطة الذكاء الاصطناعي لأشخاص حقيقيين، وبالتالي فإن هذه التقنية ستجعل الناس لا يثقون بالأدلة السمعية والبصرية.

التضليل والابتزاز
لم يقف الأمر عند هذا الحد، بل إن انتحال الشخصيات على مواقع التواصل الاجتماعي من خلال استخدام الصور الشخصية أو المقاطع المصورة وتعرض الأشخاص للابتزاز أو التضليل، يفرض على المطورين إيجاد طرق فعالة لتجنب استغلال هذه التقنيات في أمور التضليل والابتزاز.

الاحتيال والنصب
انطلاقًا من النقطة السابقة، فإنَّ عمليات الاحتيال والنصب التي ترددت خلال الفترة الماضية على المستوى الدولي، بالاعتماد على تقنيات الذكاء الاصطناعي، تُثير مزيدًا من المخاوف حيال إمكانية عدم  التحكم في الأمر، ومن ثمَّ تهديد الأمن الجمعي للخطر. وبناء على ذلك، فإن الانخراط في ابتكار تقنيات حديثة يجب أن يسير متوازيًا مع إيجاد ضمانات شديدة لتحقيق الاستخدام المفيد لهذه التقنيات.

الوظائف وسوق العمل
في حين يهدد الاعتماد المتزايد على تقنيات الذكاء الاصطناعي سوق العمل، فإنَّ المجتمعات بكافة مستوياتها السياسية والاقتصادية والاجتماعية مطالبة بضرورة التعامل بنظرة أكثر إيجابية مع هذا الأمر، من خلال الموازنة بين الاستغلال الأمثل لتلك التقنيات وفتح مجالات جديدة لاستيعاب القدرات البشرية الهائلة التي ستكون ضحية الذكاء الاصطناعي. فعلى سبيل المثال يمكن لتقنيات الذكاء الاصطناعي توفير ميزانيات ضخمة للمؤسسات والشركات والقطاعات المختلفة، التي يمكن توجيهها في الصناعة والإنتاج والمجالات العديدة التي تحتاج قوة بشرية هائلة لا يزال الذكاء الاصطناعي غير قادر على تهديدها.

الروبوتات القاتلة
أحد أكثر المخاطر التي تنبأ بها المختصون في هذا المجال، هو إمكانية إيجاد “روبوتات قاتلة”، حيث يمكن لأنظمة الذكاء الاصطناعي المستقبلية تطوير سلوكيات مختلفة بعد تحليل كمية كبيرة من البيانات، مما يحولها أداة فتاكة، وإن كان ثمة فارق كبير بين الأنظمة البيولوجية والأنظمة الرقمية، لكن أيضًا اجتماعهما معًا يمثل تحديًا للبشرية. كما أن هذا أيضًا لا يمكن السيطرة عليه، باعتباره أحد التطورات التكنولوجية المفيدة للبشرة بشكل عام، في حال التحكم في استخداماتها، على غرار الأسلحة المتطورة الحالية، أو استخدام الديناميت والقنبلة. غير أن إمكانية القيام بالهجمات عن بُعد، واستخدام أسراب من الروبوتات، وتحويل الهجمات إلى وسائل إلكترونية ذكية، يضع العالم أمام تحديات لا حدود لها؛ وهو ما يتطلب أنظمة حاكمة وقوانين صارمة، لضمان عدم حدوث انتهاكات.

المصداقية والمعلومات المضللة
بإمكان البرامج القائمة على الذكاء الاصطناعي إنتاج معلومات منظمة ومتناسقة ومقنعة، لكن السؤال: هل جميعها معلومات صحيحة، وما الطريقة التي يمكن من خلالها اختبار هذه المعلومات للتحقق من كونها غير مضللة؛ وهو ما يبرز الحاجة لمزيد من العمل لتطوير قدرات اختبارية للعينات المنتجة عن طريق الذكاء الاصطناعي.

استخدام الذكاء الاصطناعي لأغراض شريرة
يتساءل المختصون والمهتمون بالعلوم والتقنية حول إمكانية استخدام الذكاء الاصطناعي بشكل موجَّه من قبل جماعات أو تكتلات أو حتى دول ضد دول أو مناطق أو حيز جغرافي معين، وما الضمانات التي تمنع ذلك؟ وهو ما فتح الباب لعشرات الاحتمالات التي تجعل التطور السريع لهذه التقنيات أمام اختبار أخلاقي وإكسابها ميزة إيجابية لخدمة البشرية وليست سلبية.

تشكيل الوعي الجمعي
الأمر المهم هو أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تمثل جانبًا واحدًا من الجوانب العديدة التي تعتمد على الذكاء الاصطناعي، الذي يقف وراء الخوارزميات التي تحدد مقاطع الفيديو التي يجب علينا مشاهدتها عبر منصات البث وغيرها من المهام التي يمكن من خلال التحكم فيها تشكيل الوعي المجتمعي؛ ولذلك دار النقاش حول إمكانية التلاعب في تلك الخوارزميات لأغراض غير أخلاقية أو غير شفافة، وبالتالي التأثير على المحيط الاجتماعي برمَّته.

وبوجهٍ عام، يمكننا القول إن آفاق تقنيات الذكاء الاصطناعي تتجدد بشكل يومي وتبدو مذهلة؛ لكن الاضطراب الأنثروبولوجي والاجتماعي الذي يظهر في أعقاب هذا النمو الهائل والسريع، يتطلب التأكيد دومًا على أن الأساس التوجيهي للذكاء الاصطناعي ليس معاديًا للبشرية أو بديلاً للإنسان؛ إضافة إلى أن تطويره لا بدَّ أن يتم من خلال نهج إنساني قائم على القيم بجانب مراعاة حقوق البشرية، حتى تكون مساهمته سليمًا وغير مضرٍّ بالإنسانية. وهذا ما حددته الأمم المتحدة في خطة التنمية المستدامة لعام 2030؛ إذ يمكن أن تتيح تطبيقات الذكاء الاصطناعي حلولاً مبتكرة وتقييمًا محسنًا للمخاطر وتخطيطًا أفضل.
وفي هذا الشأن، قدَّمت “أودري أزولاي”، المديرة العامة لمنظمة الأمم المتحدة للتربية والعلم والثقافة (اليونسكو)، طرحًا شاملاً لمعالجة تحديات الذكاء الاصطناعي. وفي مقالة نشرتها على موقع “وقائع الأمم المتحدة”، أشارت “أزولاي” إلى ضرورة إقامة حوار عالمي مستمر حول أخلاقيات الذكاء الاصطناعي، لتنظيم تطوراته وتطبيقاته بحيث تتوافق مع الحقوق الأساسية التي تشكل أساسنا الديمقراطي، وتجنب اتباع نهج “الانتقاء والاختيار” في الأخلاقيات. وأكدت على أهمية محاربة التحيزات بين الجنسين في مجتمعاتنا، وضرورة عدم تكرارها في تطبيقات الذكاء الاصطناعي. وأخيرًا، دعت إلى تمكين الشباب عن طريق تزويدهم بالمهارات التي يحتاجونها للحياة في القرن الحادي والعشرين، لتيسير دمجهم في سوق العمل المتغير. تلك هي بعض النقاط التي شددت عليها “أزولاي” في مقالها المتعلق بتحديات الذكاء الاصطناعي، والتي تعكس الأهمية الكبيرة لتنظيم هذا المجال وضمان تقدمه واستخدامه بشكل يتوافق مع القيم الأخلاقية وحقوق الإنسان.

وفي سبيل معالجة المخاطر المرتبطة باستخدام الذكاء الاصطناعي واتخاذ الإجراءات في الوقت المناسب، أنشأت الحكومة الفدرالية في سويسرا، “شبكة كفاءات في مجال الذكاء الاصطناعي” في عام 2021؛ لتكون نقطة اتصال لكل ما يتعلق بالمسائل ذات الطابع العام في هذا المجال. وقد دعا الكثير من الخبراء والمتخصصين في مجال الذكاء الاصطناعي إلى ضرورة اعتماد دول العالم هذا النهج.

وبدأ البرلمان الأوروبي في تقديم دعوات مكثفة منذ عام 2018، من أجل إجبار شركات التكنولوجيا الكبرى على احترام القواعد الأخلاقية المتعلقة بالذكاء الاصطناعي، للحد من المخاطر الناجمة عنه. وقدَّم مجموعة من الخبراء التابعين للمفوضية الأوروبية، مسودة مبادئ توجيهية وأخلاقية يمكن أن تميِّز الذكاء الاصطناعي الجدير بالثقة. لكن لا توجد استراتيجية عالمية مَتفق عليها لتحديد المبادئ المشتركة حتى الآن.
وفي هذا الصدد، ظهرت العديد من الدراسات التي قدَّمت حلولاً عملية لمواجهة تحديات ومخاطر الذكاء الاصطناعي المحتملة. ومن بين تلك الدراسات دراسة حديثة أجريت على مدار 20 شهرًا، وضمت آراء 26 خبيرًا دوليًا لديهم خلفيات متنوعة في تكنولوجيا الذكاء الاصطناعي. وقد سلَّط الفريق البحثي في هذه الدراسة الضوء على العقبات التي يجب على البشرية معالجتها لضمان أن يكون الذكاء الاصطناعي موثوقًا وآمنًا، وجديرًا بالثقة، ومتوافقًا مع القيم الإنسانية. ونُشرت هذه الدراسة في المجلة الدولية للتفاعل بين الإنسان والحاسوب، وأبرزت 6 تحديات مع تقديم حلول اجتماعية لها، ومنها:

الخصوصية: يجب التأكد من جمع البيانات واستخدامها في أنظمة الذكاء الاصطناعي؛ لضمان حماية خصوصية الأفراد، ومنع أي استخدام ضار ضدهم.

التصميم: ويتطلب استخدام مبادئ التصميم التي تركز على الإنسان، إذ سيميز هذا الإطار بين الذكاء الاصطناعي ذي المخاطر المنخفضة جدًا، والذكاء الاصطناعي الذي لا يحتاج إلى تدابير خاصة، والذكاء الاصطناعي الذي ينطوي على مخاطر عالية جدًا، والذكاء الاصطناعي الذي لا ينبغي السماح به.

الحوكمة والرقابة: هناك حاجة إلى إطار حوكمة يأخذ في الاعتبار دورة حياة الذكاء الاصطناعي كلها، من المفهوم، إلى التطوير، إلى النشر.

التفاعل بين الإنسان والذكاء الاصطناعي: لتعزيز العلاقة الأخلاقية والعادلة بين البشر وأنظمة الذكاء الاصطناعي؛ يجب الحفاظ على السيطرة الكاملة والمسؤولية البشرية عن سلوك ونتائج أنظمة الذكاء الاصطناعي.

اترك رد

Your email address will not be published.