ضبط الذكاء الاصطناعي
هيلة المشوح
لا يزال الذكاء الاصطناعي يشكل مصدر توجس يتعين التأهب له، ليس فقط على مستوى المؤسسات التقنية والخدمية، بل على مستوى الدول والكيانات السياسية الكبرى أيضاً. وقد أصدرت الإدارة الأميركية، الاثنين 30 أكتوبر المنصرم، مجموعةَ قواعد تهدف إلى التحقق من إدارة وتوجيه أميركا لتنظيم الذكاء الاصطناعي، تحت عنوان “حماية خصوصية الأميركيين وترسيخ المساواة والحقوق المدنية وحماية الابتكار والمنافسة”. وإثر ذلك مباشرةً وقَّع الرئيس الأميركي جو بايدن أمراً تنفيذياً يضع معايير جديدة للسلامة وحماية الخصوصية في مجالات الذكاء الاصطناعي، وهو أمر يحتم على مطوري أنظمة الذكاء الاصطناعي في جميع القطاعات مشاركةَ نتائج اختبارات السلامة الخاصة بهم مع “الحكومة الفيدرالية”، ما يجعل أنظمة الذكاء الاصطناعي، مثل مايكروسوفت وجوجل، خاضعة لرقابة مجموعة من الإدارات الحكومية.
وبحسب الإدارة الأميركية، فإن ذلك يتماشى مع قانون الإنتاج الدفاعي، الذي يتطلب من الشركات التي تقوم بتطوير أي نموذج يمكن أن يشكل خطراً على الأمن القومي أو الصحة العامة الوطنية أو الأمن الاقتصادي القومي، إخطارَ الحكومة الفيدرالية ومشاركتَها نتائجَ البحث مسبقاً قبل إقرارها. ويتطور الذكاء الاصطناعي بوتيرة متسارعة تجعل متغيرات الأمس في هذا المجال تبدو صغيرة ولا تكاد تُذكَر أمام متغيرات اليوم، وبالتالي فإن ما سيحدث غداً وبعد غد لا يشبه اليومَ، مما يستوجب الحذر والتأني. ولو لجأنا إلى الذكاء الاصطناعي نفسه، مثل “شات جي بي تي” (ChatGPT) و”جي بي تي-4″ (GPT-4) و”ساغ”(Sage) و”كلود+” (Claude+)، لمعرفة المنزلقات الخطيرة في استخدام هذه التقنيات، فسنخرج بنتيجة ليست مطمئنة، إذ يمثل استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة لتزييف العميق إيذاناً بانتشار المعلومات المضللة على نطاقات واسعة عبر الإنترنت، أي فقدان المصداقية وبالتالي ضياع الحقائق وندرة المعلومة الموثوقة.
وهذا من شأنه خلق خلل يقوض دقة المعلومات وسلامتها وينهي الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية والانتخابات، وبالتالي احتمالية اتخاذ إجراءات سياسية أو اقتصادية بناءً على معلومات خاطئة.أما من ناحية أسوأ السيناريوهات التي قد تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، فإن احتمالية انتشار الأسلحة “ذاتية التشغيل” أمر وارد الحدوث في سياق السباق المحموم على التسلح، ناهيكم عن إمكانية التسلح بالذكاء الاصطناعي وانعدام كفاية تدابير السلامة، مما يزيد احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية، تجعل الذكاء الاصطناعي نفسه يتحول من إطار المعلومة إلى سلاح قاتل يهدد البشرية بالفوضى والفناء.
الولايات المتحدة أكثر الدول صناعةً وتداولاً للتقنيات المتطورة على كافة المستويات، لكنها في الوقت نفسه تتوقف أمام الذكاء الاصطناعي لتكييفه بما يتواءم وأمنها القومي، وذلك بفرض معايير ومبادئ خاصة لاستخداماته.فالمعهد الوطني الأميركي للمعايير والتكنولوجيا يضطلع اليوم بوضع معايير السلامة قبل إصدار أي نموذج، ومن ثم تقوم وزارة الأمن الداخلي بتطبيق هذه المعايير على قطاعات البنية التحتية الحيوية وإنشاء مجلس السلامة والأمن للذكاء الاصطناعي. وفي الوقت ذاته تعتزم الولايات المتحدة تطوير أفضل النماذج لاستخدام الذكاء الاصطناعي في مجالات متعددة كالقضاء، خاصة في ما يتعلق بإصدار الأحكام وإجراءات الإفراج والاحتجاز السابقة للمحاكمات وتقييم المخاطر والمراقبة والتنبؤ بالجريمة.. وكل ذلك يتعلق بنظام العدالة الجنائية. كذلك يطوّر الأمرُ التنفيذي الذي وقّعه الرئيس بايدن قبل أيام أفضل الممارسات لتقليل أضرار الذكاء الاصطناعي وللاستفادة من مجالاته المختلفة
المصدر: الاتحاد