مخاطر وتحديات الذكاء الاصطناعي
إن موضوع المخاطر المحتملة والمتعلقة بالتقدم السريع لتقنيات الذكاء الاصطناعي أصبح من الموضوعات المهمة المتداولة في الوقت الحاضر، وهي كغيرها من التقنيات والتكنولوجيا، تعد أنظمة وتقنيات مفيدة للغاية، لكن قد تظهر لها مخاطر وآثار جسيمة لأسباب وعوامل عدة، منها الرغبة في النفوذ أو السيطرة، أو بسبب ضغوط تنافسية، أو غيرها من العوامل الأخرى. ولعل من بين هذه المخاطر -على سبيل المثال- صعوبة تحقيق التحكم الكامل عليها، لكونها يمكن أن تتطور بشكل سريع وغير متوقع وتتجاوز التوقعات البشرية لها، وذلك قد يؤدي إلى حدوث أعمال أو قرارات غير مرغوب فيها أو ضارة وخطيرة، كزراعة تقنيات الشرائح الإلكترونية الذكية في أدمغة البشر من شركة نيورالينك، والمخاوف والمخاطر من جراء ذلك، كما يمكن توظيف تقنيات الذكاء الاصطناعي في الأنشطة الإجرامية والخداعية، مثل الاحتيال الإلكتروني، والاختراقات السيبرانية، والتضليل الإعلامي، والتلاعب بالأسواق الاقتصادية، وغيرها من الأنشطة غير القانونية وغير الأخلاقية، ما قد يصعد الجريمة ويعقد الجهود في مكافحتها. ومن الأمثلة أيضا، مع تزايد الكم الهائل من البيانات التي تتعامل معها أنظمة وتقنيات الذكاء الاصطناعي، يمكن أن تتعرض هذه البيانات للاختراق أو الاستغلال غير المشروع، وذلك سيشكل تهديدا واضحا للخصوصية والأمان. كما أن الاعتماد الكبير على الذكاء الاصطناعي في النظم الحيوية الحساسة يؤدي إلى تهديد الأمان والسلامة العامة، والاعتماد الزائد على هذه التقنيات قد يتسبب أيضا في تقليل التحكم البشري في كثير من العمليات واتخاذ القرارات، وهذا بالتالي قد ينتج عنه كثير من الأخطاء أو الأعمال غير المرغوب فيها أو غير المتوقعة أو صعبة الحل.
وبدأ كثير من المراكز البحثية والمنظمات غير الربحية في مجال تقنيات الذكاء الاصطناعي وأنظمته، استشعار هذه المخاطر والتحديات، مثل مركز أمان الذكاء الاصطناعي في سان فرانسيسكو، كاليفورنيا، وعملت على تحديد نوعية مجموعة من المخاطر، وأثر استخدام مثل هذه التقنيات والأنظمة الخاصة بالذكاء الاصطناعي، والآثار المترتبة على ذلك، ونشرت عبر موقعها الإلكتروني أمثلة متعددة لتلك المخاطر، شملت خطورة بناء تقنيات وأنظمة ذكاء اصطناعي تدميرية، كالأسلحة الكيميائية والبيولوجية وغيرها، لغرض بسط النفوذ والسيادة، وما يترتب على ذلك من فقدان الأمن والاستقرار، وبدأت مثل هذه المراكز والمنظمات بالعمل على تطوير وتصميم معايير وأساليب لضمان وتعزيز سلامة هذه الأنظمة وتبني بنيات تحتية ومسارات في أمان الذكاء الاصطناعي.
ولمواجهة هذه التحديات والمخاطر، لا بد من وضع قوانين وسياسات وأنظمة، تضبط مسار هذه التقنيات وتعمل على حوكمتها لتجنب الوقوع في مخاطرها التي سبق ذكرها، وأن تكون هذه الأنظمة والقوانيين قابلة للتحديث والتطوير ما بين فترة وأخرى. لذا نجد أخيرا أنه في الولايات المتحدة التي تعد رائدة في مجال الذكاء الاصطناعي ومنافسا قويا على هذه الساحة، قام مكتب البيت الأبيض لسياسات العلوم والتكنولوجيا بتحديث خططه الاستراتيجية الوطنية للبحث والتطوير في مجال تقنيات الذكاء الاصطناعي، وذلك لأول مرة منذ 2019، والتي في ضوئها تم تحديد الأولويات والأهداف الرئيسة للاستثمارات الفيدرالية في البحث والتطوير في مجال الذكاء الاصطناعي، وتم من خلالها التأكيد على أهمية إدارة المخاطر المرتبطة بالذكاء الاصطناعي وخدمة المصلحة العامة، وحماية الحقوق والسلامة، وتعزيز القيم الأخلاقية. وشمل هذا التحديث استراتيجيات عدة، منها: فهم ومعالجة الآثار الأخلاقية والقانونية والمجتمعية للذكاء الاصطناعي. ضمان سلامة وأمن أنظمة الذكاء الاصطناعي. قياس وتقييم أنظمة الذكاء الاصطناعي من خلال معايير قياسية. كما اشتملت على ضرورة تسخير الذكاء الاصطناعي لتحسين جودة الحياة، وووضع نهج مبدئي ومنسق ومحكم للتعاون الدولي في أبحاث الذكاء الاصطناعي. محليا، ولكون تقنيات الذكاء الاصطناعي يمكن تداولها عبر شبكات الإنترنت، فهناك دور كبير وتحد أكبر على عاتق الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، والمركز الوطني للذكاء الاصطناعي، وهيئة التحول الرقمي، وغيرها من الجهات المعنية، لوضع آلية محكمة وسن أنظمة وقوانين محلية لضبط عمليات استخدامها ومتابعتها ومراقبتها كحلول استباقية للحد من أخطارها وآثارها السلبية. وأرى كذلك أن معالجة هذه المخاطر تتطلب أن يكون هناك تعاون دولي لتطوير أطر وقوانين وأخلاقيات واضحة للتعامل مع تطور تقنيات الذكاء الاصطناعي، حتى يكون هناك توازن بين استفادة المجتمع من فوائد هذه التقنيات والأنظمة، وفي الوقت نفسه تحقيق الحماية اللازمة من مخاطرها المحتملة.