
قمة “جنيف” تضع أخلاقيات الذكاء الاصطناعي في الواجهة… و”السعودية” تتقدم المشهد برؤية مسؤولة
AI بالعربي – متابعات
في أروقة قصر الأمم بجنيف، وخلال فعاليات “قمة الذكاء الاصطناعي لأجل الخير 2025″، طُرح سؤال جوهري يتردد في ممرات النقاش بين العلماء وصنّاع القرار: هل يمكن للآلة أن تتعلم أن تكون عادلة وإنسانية؟
فبينما تتجه الأنظار نحو تطور قدرات الذكاء الاصطناعي، ينصبّ تركيز القمة على الجوانب الأخلاقية لاستخدام هذه التقنيات، وسط دعوات متزايدة لوضع أطر واضحة تُنظم العلاقة بين التكنولوجيا والإنسان، في زمن باتت فيه الخوارزميات تؤثر في قرارات مصيرية تتعلق بالصحة، والوظائف، والعدالة.
الذكاء الاصطناعي: من الكفاءة إلى المسؤولية
تتنامى الأسئلة حول كيفية ضمان ألا تتحول الخوارزميات الذكية إلى أدوات تكرّس التحيز أو تنتهك الخصوصية. من يُدرب هذه الأنظمة؟ وعلى أي قيم؟ وكيف نضمن الشفافية والمساءلة حين تتخذ الآلات قرارات تؤثر على البشر؟
مع تزايد الاعتماد العالمي على الذكاء الاصطناعي، تتصدر مفاهيم مثل العدالة الرقمية والمساءلة الخوارزمية وحماية الحقوق الرقمية واجهة النقاش، لتتحول من قضايا تقنية إلى تحديات أخلاقية عالمية.
رؤية سعودية لحوكمة أخلاقية شاملة
في هذا السياق العالمي، برزت المملكة العربية السعودية كلاعب محوري، من خلال إطار وطني شامل لحوكمة الذكاء الاصطناعي أطلقته الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) عام 2022، لتكون أول دولة في الشرق الأوسط تتبنى سياسة رسمية تُنظم استخدام هذه التقنيات من منظور أخلاقي وإنساني.
ويرتكز الإطار السعودي على أربعة مبادئ رئيسية:
1. الشفافية والعدالة واحترام حقوق الإنسان
2. مساءلة المطورين والمستخدمين عن نتائج الأنظمة الذكية
3. حماية البيانات الشخصية وفق معايير صارمة
4. تعزيز الثقة المجتمعية في الذكاء الاصطناعي
هذا التوجّه أكسب المملكة اهتمامًا عالميًا متزايدًا، لا سيما بعد استضافة الرياض للقمة العالمية للذكاء الاصطناعي في نسختي 2022 و2023، بمشاركة أكثر من 90 دولة ومنظمات كبرى مثل اليونيسكو والمنتدى الاقتصادي العالمي.
جنيف 2025: أخلاقيات الذكاء الاصطناعي في قلب الحوار العالمي
جاءت نسخة هذا العام من القمة برعاية الاتحاد الدولي للاتصالات (ITU)، ورفعت شعار: “أخلاقيات الذكاء الاصطناعي”، في دعوة لصياغة ميثاق دولي يُضمن الاستخدام الآمن والعادل للتقنيات الذكية.
ودعت د. بيغي هيكس، ممثلة الأمم المتحدة، إلى إنشاء “دستور رقمي عالمي” ينظّم استخدام الذكاء الاصطناعي على أسس تحترم الكرامة الإنسانية وتراعي التنوع الثقافي بين الشعوب.
من جهته، حذّر الأمين العام للاتحاد الدولي للاتصالات، دورين بوغدان-مارتن، من “فجوة أخلاقية” قد تسبق الفجوة الرقمية، مؤكدًا أهمية وضع قوانين تحكم عمل الذكاء الاصطناعي قبل أن تخرج قدراته عن السيطرة.
السعودية شريك في صياغة المستقبل الأخلاقي
تلعب المملكة دورًا فاعلًا في صياغة هذا الإطار العالمي، من خلال عضويتها في المجلس الاستشاري الدولي لأخلاقيات الذكاء الاصطناعي التابع للأمم المتحدة، الذي يضم خبراء من أكثر من 30 دولة. وهو ما يعكس موقعها كمرجعية عربية ودولية في قيادة الذكاء الاصطناعي المسؤول.
الخصوصية في العصر الرقمي: حماية الإنسان أولًا
في زمن باتت فيه البيانات الشخصية سلعة رقمية، تؤكد المملكة التزامها بحماية الخصوصية، إذ أصدرت اللائحة العامة لحماية البيانات الشخصية عبر الهيئة الوطنية للأمن السيبراني، لتكون بمثابة مرجعية قانونية تنظم جمع ومعالجة وتخزين البيانات وفق ضوابط شفافة.
هذا التوجّه لا يحمي الأفراد فقط، بل يُرسخ ثقة المجتمع في التقنيات الذكية، ويُعزز مكانة المملكة كدولة تحرص على التوازن بين التقدم الرقمي والضمانات الأخلاقية.
الذكاء الأخلاقي الآلي: علم جديد أم طموح مستقبلي؟
في المختبرات والمراكز البحثية، يتجه العلماء نحو تطوير ما يُعرف بـ “الذكاء الأخلاقي الآلي”، أي برمجة الآلة لتُميز بين الصواب والخطأ. تُجرى هذه الأبحاث في جامعات كبرى مثل MIT وستانفورد، إلى جانب جامعة الملك عبد الله للعلوم والتقنية (كاوست) في السعودية.
الهدف: تصميم أنظمة قادرة على اتخاذ قرارات عادلة ومنصفة، خصوصًا في مجالات حساسة مثل الرعاية الصحية والتوظيف والقضاء.
لكن يبقى السؤال الأهم: هل يمكن للآلة أن تمتلك ضميرًا؟
الإجابة قد تكون مؤجلة، لكن المؤكد أن بناء مستقبل عادل يبدأ اليوم… بقرارات بشرية مسؤولة تضع القيم في قلب التكنولوجيا.