كيف يمكن للذكاء الاصطناعي أن يخلق مساحات أكثر أمانًا على الإنترنت؟

7

AI بالعربي – خاص

أصبحت خوارزميات الذكاء الاصطناعي قوية للغاية، حيث وصف بعض الخبراء الذكاء الاصطناعي بأنه حساس، بحيث يمكن أن يكون لأي فساد أو تلاعب أو تحيز أو تمييز آثار هائلة على المنظمات وحياة الإنسان والمجتمع.

خوارزميات الذكاء الاصطناعي والتمييز الرقمي

تؤثر قرارات الذكاء الاصطناعي بشكل متزايد على حياة الناس وتؤثر عليها على نطاق واسع، يمكن أن يؤدي استخدامها بشكل غير مسؤول إلى تفاقم التحيزات البشرية القائمة والتدابير التمييزية مثل التنميط العنصري أو التنبؤ السلوكي أو تحديد التوجه الجنسي، يحدث هذا التحيز الداخلي لأن الذكاء الاصطناعي جيد مثل كمية بيانات التدريب التي يمكننا توفيرها، والتي يمكن أن تكون عرضة للتحيزات البشرية.

يمكن أن تحدث التحيزات أيضًا عندما يتم تدريب خوارزميات التعلم الآلي واختبارها على البيانات التي لا تمثل مجموعات سكانية فرعية معينة بشكل ناقص، مثل النساء أو الأشخاص الملونين أو الأشخاص في ديموغرافيات عمرية معينة، على سبيل المثال، تظهر الدراسات أن الأشخاص الملونين معرضون بشكل خاص للتحيز الخوارزمي في تقنية التعرف على الوجه.

يمكن أن تحدث التحيزات أيضًا في الاستخدام. على سبيل المثال، يمكن استخدام خوارزميات الذكاء الاصطناعي المصممة لتطبيق معين لأغراض غير مقصودة لم يتم إنشاؤها من أجلها، مما يؤدي إلى سوء تفسير المخرجات.

التحقق من صحة أداء خوارزمية الذكاء الاصطناعي

يمكن أن يكون التمييز الذي يقوده الذكاء الاصطناعي مجرّدًا وغير بديهي ودقيق وغير ملموس ويصعب اكتشافه، من المحتمل أن تكون شفرة المصدر مقيدة من الجمهور أو قد لا يعرف المدققون كيفية نشر الخوارزمية، لا يمكن التقليل من تعقيد الدخول إلى خوارزمية الذكاء الاصطناعي لمعرفة كيف تمت كتابتها والاستجابة لها.

تعتمد قوانين الخصوصية الحالية على الإشعار والاختيار؛ لذلك، نادرًا ما تتم قراءة وابل الإخطارات الناتج الذي يطلب من المستهلكين الموافقة على سياسات الخصوصية المطولة. إذا تم تطبيق هذه الإشعارات على الذكاء الاصطناعي، فستكون لها عواقب وخيمة على أمن وخصوصية المستهلكين والمجتمع.

الذكاء الاصطناعي كسلاح

على الرغم من أن البرامج الضارة الحقيقية التي تعمل بالذكاء الاصطناعي قد لا تكون موجودة بعد، إلا أنه ليس من المستبعد أن نفترض أن البرمجيات الخبيثة ذات الذكاء الاصطناعي ستزيد من قدرات المهاجم الاحتمالات لا حصر لها، البرامج الضارة التي تتعلم من بيئتها لتحديد واستغلال نقاط الضعف الجديدة، والأدوات التي تختبر الأمان المستند إلى الذكاء الاصطناعي أو البرامج الضارة التي يمكن أن تسمم الذكاء الاصطناعي بمعلومات خاطئة.

يتم بالفعل استخدام المحتوى الرقمي الذي يتم التلاعب به بواسطة الذكاء الاصطناعي لإنشاء نسخ اصطناعية فائقة الواقعية للأفراد في الوقت الفعلي “المعروف أيضًا باسم التزييف العميق”. نتيجة لذلك، سيستفيد المهاجمون من التزييف العميق لإنشاء هجمات هندسية اجتماعية شديدة الاستهداف، أو التسبب في أضرار مالية، أو التلاعب بالرأي العام، أو اكتساب ميزة تنافسية.

يمكن أن يكون التمييز الذي يقوده الذكاء الاصطناعي مجرّدًا وغير بديهي ودقيق وغير ملموس ويصعب اكتشافه. من المحتمل أن يتم تقييد شفرة المصدر من الجمهور أو قد لا يعرف المدققون كيفية نشر خوارزمية الذكاء الاصطناعي.

التخفيف من المخاطر المتعلقة بخوارزمية الذكاء الاصطناعي

نظرًا لأن قرارات الذكاء الاصطناعي تؤثر بشكل متزايد على حياة الناس وتؤثر عليها على نطاق واسع، فإن الشركات تتحمل مسؤولية أخلاقية واجتماعية وائتمانية لإدارة تبني الذكاء الاصطناعي بشكل أخلاقي يمكنهم القيام بذلك بعدة طرق.

1- ترجمة الأخلاق إلى مقاييس

يلتزم الذكاء الاصطناعي الأخلاقي بالمبادئ التوجيهية والأخلاقية المحددة جيدًا والقيم الأساسية، مثل الحقوق الفردية والخصوصية وعدم التمييز، والأهم من ذلك، عدم التلاعب، يجب على المنظمات وضع مبادئ واضحة لتحديد وقياس وتقييم وتخفيف المخاطر التي يقودها الذكاء الاصطناعي، بعد ذلك، يجب عليهم ترجمتها إلى مقاييس عملية وقابلة للقياس وتضمينها في العمليات اليومية.

2- فهم مصادر التحيز في خوارزميات الذكاء الاصطناعي

إن امتلاك الأدوات المناسبة للتحقيق في مصادر التحيز وفهم تأثيرات الإنصاف في صنع القرار أمر بالغ الأهمية في تطوير الذكاء الاصطناعي الأخلاقي. حدد الأنظمة التي تستخدم التعلم الآلي، وحدد مدى أهميتها للأعمال، وقم بتنفيذ العمليات والضوابط والإجراءات المضادة ضد التحيزات التي يسببها الذكاء الاصطناعي.

3- تحقيق التوازن بين الاستقلالية والإشراف البشري

يجب على المنظمات إنشاء لجنة أخلاقيات متعددة المجالات تشرف على الإدارة المستمرة والمراقبة للمخاطر التي تقدمها أنظمة الذكاء الاصطناعي داخل المنظمة وسلسلة التوريد. يجب أن تضم اللجنة أشخاصًا من خلفيات متنوعة لضمان الحساسية اتجاه مجموعة كاملة من القضايا الأخلاقية.

يجب تصميم الخوارزميات مع مدخلات الخبراء والمعرفة الظرفية والوعي بالتحيزات التاريخية، يجب تفويض عمليات التفويض البشري في المجالات الحرجة، على سبيل المثال، في المعاملات المالية، لمنع تعرضها للخطر من قبل الجهات الخبيثة.

4- تمكين الموظفين ورفع مستوى الذكاء الاصطناعي المسؤول

رعاية ثقافة تمكّن الأفراد من إثارة المخاوف بشأن أنظمة الذكاء الاصطناعي دون خنق الابتكار. بناء الثقة الداخلية في الذكاء الاصطناعي من خلال معالجة الأدوار والتوقعات والمسؤوليات بشفافية. إدراك الحاجة إلى أدوار جديدة ورفع المهارات أو إعادة الصقل أو التوظيف.

يمكنك تمكين المستخدمين من خلال توفير تحكم أفضل والوصول إلى حق الرجوع إذا لزم الأمر. تعد القيادة القوية أيضًا أمرًا محوريًا لتمكين الموظفين ورفع مستوى الذكاء الاصطناعي المسؤول كضرورة عمل.

5- الاستفادة من الذكاء الاصطناعي لمعالجة التمييز

يمكن أن تستفيد الفحوصات الإجرائية، وهي الطريقة التقليدية لتقييم الإنصاف البشري، من الذكاء الاصطناعي من خلال تشغيل الخوارزميات جنبًا إلى جنب مع عمليات اتخاذ القرار البشرية، ومقارنة النتائج وشرح السبب وراء القرارات التي تقودها الآلة. مثال آخر على ذلك هو مبادرة أبحاث معهد ماساتشوستس للتكنولوجيا حول مكافحة العنصرية النظامية التي تعمل على تطوير واستخدام أدوات حسابية لخلق المساواة العرقية في العديد من قطاعات المجتمع المختلفة.

للتلخيص، يجب أن تكون نماذج الذكاء الاصطناعي جديرة بالثقة وعادلة وقابلة للتفسير حسب التصميم. نظرًا لأن الذكاء الاصطناعي يصبح أكثر ديمقراطية وتتشكل نماذج حوكمة جديدة، فإن المزيد من الابتكارات الممكّنة للذكاء الاصطناعي تلوح في الأفق

اترك رد

Your email address will not be published.