“سدايا” تطلق أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي

"سدايا" تطلق أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي

AI بالعربي – متابعات

أعلنت الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا” عن إطلاق أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي عبر منصة حوكمة البيانات الوطنية؛ التي تهدف إلى مساعدة الجهات الحكومية والخاصة، وكذلك المطورون الأفراد في قياس مدى التزامهم بالمبادئ الأخلاقية عند تطوير وتطبيق تقنيات الذكاء الاصطناعي، وتمكين الجهات من إجراء تحليل منهجي وشامل لمدى التزامها بالمعايير الأخلاقية.

وتُمكّن أداة التقييم الذاتي لأخلاقيات الذكاء الاصطناعي الجهات من تعزيز الشفافية والموثوقية في تطوير تطبيقات الذكاء الاصطناعي، وتحقيق التوافق مع أفضل الممارسات العالمية، كما تسهم الأداة في ضمان تطوير تقنيات ذكاء اصطناعي تخدم المجتمع وتعزز من مكانة المملكة؛ بوصفها نموذجًا عالميًا في تطوير وتطبيق تقنيات الذكاء الاصطناعي المسؤولة.

وتعد أداة التقييم إطارًا شاملًا مكونًا من 81 سؤالًا أُعِدَّت وفق أعلى المعايير العالمية لتقييم التزام الجهات بأخلاقيات الذكاء الاصطناعي، وتغطي هذه الأسئلة سبعة مبادئ أساسية تهدف إلى رفع مستوى نضج المنتجات في تطبيق أخلاقيات الذكاء الاصطناعي وتحقيق توازن بين الابتكار والمسؤولية، وتشمل هذه المبادئ الإنصاف لضمان العدالة وتجنب التمييز في النماذج والتطبيقات، والإنسانية التي تركز على احترام حقوق الإنسان وتعزيز رفاهيته.

كما تهتم الأداة بتحقيق المزايا الاجتماعية والبيئية من خلال إحداث أثر إيجابي على المجتمع والبيئة، إلى جانب حماية الخصوصية وضمان أمان بيانات الأفراد، مركزة على الموثوقية والسلامة لضمان عمل الأنظمة، وتعزيز الشفافية والقابلية للتفسير لتمكين الفهم الواضح لآليات عمل النماذج وقراراتها.

وتتضمن المساءلة والمسؤولية لضمان وجود آليات واضحة عن استخدام تقنيات الذكاء الاصطناعي وقراراتها، وتهدف هذه المبادئ مجتمعة إلى تعزيز التطوير المسؤول للتقنيات بما يخدم القيم الإنسانية والمجتمعية.

وتعتمد الأداة على نظام قياس بسيط ومباشر، حيث يُجَاب عن الأسئلة باستخدام مقياس يتراوح بين 1 “أدنى مستوى” إلى 5 “أعلى مستوى” وبعد الانتهاء من الإجابة عن جميع الأسئلة، تحلل الأداة النتائج وإصدار تقرير مفصل يوضح مستوى النضج الأخلاقي في كل مبدأ من المبادئ السبعة، ويعطي صورة شاملة حول نقاط القوة التي يمكن البناء عليها، وكذلك الجوانب التي تحتاج إلى تحسين لتلبية المتطلبات الأخلاقية.

وصُممت الأداة لتمكن الجهات من استخدامها مرات عديدة لتتبع تقدمها وتحسين أدائها مع مرور الوقت، وتمنح هذه المرونة مختلف الجهات فرصة تعزيز التزامها الأخلاقي بشكل مستمر وتحديث ممارساتها بما يتماشى مع التطورات الحديثة.

ويمكن للجهات أو الأفراد البدء بإجراءات التقييم من خلال الدخول إلى منصة حوكمة البيانات الوطنية، حيث تتوفر أداة تقييم أخلاقيات الذكاء الاصطناعي. وبعد اختيار الأداة، يتم مباشرة عملية التقييم وذلك من خلال هذا الرابط.

Related Posts

“جوجل” تدفع التسوق إلى عصر الوكلاء الأذكياء.. الشراء يتم دون تدخل بشري

AI بالعربي – متابعات يشهد قطاع التجارة الإلكترونية تحولًا متسارعًا بفعل الذكاء الاصطناعي، بعدما انتقل من التوصية إلى التنفيذ. لم يعد الدور مقتصرًا على اقتراح المنتجات، بل امتد إلى إتمام…

دراسة تحذّر من فجوة حوكمة الذكاء الاصطناعي داخل المؤسسات

AI بالعربي – متابعات كشفت دراسة بحثية حديثة عن فجوة متنامية بين ثقة المؤسسات في جاهزيتها لإدارة تقنيات الذكاء الاصطناعي، وبين واقع سياسات الوصول المطبقة فعليًا داخل بيئات العمل. الدراسة…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 217 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 252 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 346 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 369 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 378 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 496 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر