أنظمة الذكاء الاصطناعي لم تعد ألعابًا

30

AI بالعربي – متابعات

تتبقى أيامًا قليلة على انعقاد أول قمة في بريطانيا تتعلق بسلامة الذكاء الاصطناعي. وفي خطوة ذات دلالات اختار القائمون على الحدث، الذي سيعقد يومي الأول والثاني من نوفمبر المقبل، قصر “بلتشلي بارك” التاريخي لتنظيم القمة، وكان مقرًا لمنظمة بريطانية سرية تُسمى محطة إكس “Station X”، مهمتها فك شفرات الاتصالات العسكرية الألمانية خلال الحرب العالمية الثانية.

وتأمل الحكومة البريطانية من القمة التي تهدف إلى تعزيز وتشجيع نهج دولي بشأن معايير السلامة في الذكاء الاصطناعي، والتركيز بشكل خاص على “نماذج الأساس”. وتجمع القمة بين واضعي سياسات وشركات الذكاء الاصطناعي والخبراء والباحثين لمناقشة المخاطر التي تشكلها هذه النماذج وتشجيع التنمية الآمنة والمسؤولة.

ومن المقرر أن تركز القمة على خمسة محاور هي: تطوير فهم مشترك للمخاطر التي يشكلها الذكاء الاصطناعي الحدودي، وطرح عملية للتعاون الدولي بشأن سلامة التكنولوجيا الجديدة، واقتراح التدابير المناسبة التي ينبغي على المنظمات الفردية اتخاذها لتحسين السلامة، وتحديد مجالات التعاون المحتملة في أبحاث سلامة الذكاء الاصطناعي، بما في ذلك تقييم القدرات المحتملة للذكاء الاصطناعي وتطوير معايير جديدة لدعم الحوكمة، ومن ثم ضمان التنمية الآمنة للاستخدام على مستوى العالم، وستركز أيضًا على المخاطر التي يمكن أن تنشأ عن المزيد من التقدم في تكنولوجيا الذكاء الاصطناعي.

ونلاحظ استخدام مصطلح جديد هو “الذكاء الاصطناعي الحدودي”، ويستخدم لوصف الذكاء الاصطناعي الذي يعمل في بيئات معقدة وغير محددة، وتتطلب منه التكيف والتعلم والتعاون مع البشر أو الآلات الأخرى.

وبالرغم من أن هذه النماذج لها إمكانات هائلة وفوائد ابتكارية، إلا أنها تتمتع بقدرات خطيرة لا ينبغي الاستهانة بها وتشكل تهديدًا للسلامة العامة والأمن العالمي، وهناك تخوّف من إمكانية أن يتم توظيفها في استغلال نقاط الضعف في أنظمة البرمجيات ونشر معلومات مضللة ومقنعة على نطاق واسع.

وتشكل هذه النماذج المعقدة تحديًا تنظيميًا؛ فقد يطور الذكاء الاصطناعي قدرات خطيرة غير متوقعة، تظل غير مكتشفة حتى بعد حدوث الضرر. ومن الصعب على المبدعين والمنظمين تحديد ما ينبغي للذكاء الاصطناعي القيام به. وقد يكون من الصعب التمييز بين المخرجات الخطيرة ونظيرتها المفيدة دون معرفة السياق، والذي غالبًا ما يكون غير معروف للمطورين في البداية.

وكانت الحكومة البريطانية قد شكلت مؤخرًا فريق عمل الذكاء الاصطناعي الحدودي للتركيز على المخاطر الكبيرة التي تشكلها هذه الأنظمة الخاصة. وروجت بريطانيا حتى الآن لنهج مؤيد للابتكار واختارت عدم فرض تشريعات في هذا المجال، ومع ذلك كان هناك اعتراف بأن نماذج الأساس تحتاج إلى المزيد من التفكير والتدخل.

واقترح مكتب الذكاء الاصطناعي نهجًا لا مركزيًا من أجل تشجيع الابتكار. ومنذ نشر الورقة تعمل الحكومة مع المنظمين على تحديد ما إذا كانت المبادئ تطبق بطريقة مناسبة وفعالة، وما إذا كانت هناك حاجة إلى تدخل قانوني.

وأشارت لجنة العلوم والابتكار والتكنولوجيا في مجلس العموم البريطاني إلى مواضيع محددة للمناقشة في القمة وسلطت الضوء على 12 تحديًا للحوكمة يجب أن تعالَج لضمان السلامة العامة والثقة بالذكاء الاصطناعي.

وستكون المواضيع نقاطًا مهمة لتأطير المناقشة. ولكن فيما يتعلق بالذكاء الاصطناعي الحدودي، فإن بعض أهم التحديات هي التحيز والتحريف والوصول إلى البيانات.

اترك رد

Your email address will not be published.