نظام الذكاء الاصطناعي معقد وديناميكي

19

BRONWYN HOWELL

أعلنت شركة Meta عن النسخة الأحدث من نموذجها اللغوي الكبير (LLM)، Llama 3. سيهدف النموذج الجديد إلى إزاحة شركة OpenAI في السوق من خلال تحسينات متنوعة يدعي Meta أنها مدفوعة، من مثل مجموعات بيانات تدريب “عالية الجودة” وقدرات برمجة حاسوبية جديدة. يتوقع “كريس كوكس”، كبير مسؤولي المنتجات في Meta أن تشمل النسخ المستقبلية من النموذج “تعدد الوسائط” الذي يعزز التفكير المتقدم. بينما تستحوذ طموحات Meta على العناوين الرئيسية، من المرجح أن تؤدي التعقيدات الشديدة للأنظمة إلى عدم تحقيق توقعات “كوكس” وآخرين. على سبيل المثال، فشل Llama 2 في فهم السياق الأساسي. ومن الضروري أن تدرك الجهات التنظيمية أن نظام الذكاء الاصطناعي معقد، وأن تسمح للمطورين بتعديل وتحسين النماذج خلال عملية النشر.

يعمل الباحثون والمهندسون والشركات والمؤسسات الأكاديمية والوكالات الحكومية معًا عبر التخصصات والصناعات المختلفة لدمج الذكاء الاصطناعي في مجموعة واسعة من الأنظمة المعقدة الاجتماعية والتقنية والاقتصادية؛ وهو ما يتضح من خلال حالات ChatGPT وGemini. تتطلب تطوير هذه النماذج الأساسية تعاونًا بين اللغويين وعلماء الكمبيوتر والمهندسين، والشركات التي تمتلك القوة الحاسوبية والبيانات اللازمة لبناء وتدريب النماذج. كما يتطلب العملية ممولين لتطوير النماذج، وعلماء من تخصصات أخرى، مثل العلوم الاجتماعية والأخلاقيات، والشركات التي ستستخدمها في تطبيقات تواجه العملاء مثل المواقع الإلكترونية.

نتيجة لذلك، يكون النظام البيئي الناتج معقدًا للغاية، ويتميز بخصائص الأنظمة المعقدة مثل الاستدلال غير الكامل، وعدم اليقين، وعدم القابلية للتنبؤ، وعدم التزامن وعدم القابلية للتجزئة. يكون من الصعب توقع سلوك النظام الكلي أو التحكم فيه بسهولة نظرًا للعديد من المكونات المترابطة. وبالتالي، يواجه انتشار تطبيقات الذكاء الاصطناعي تحديات جديدة في فهم وشرح السلوكيات التي تنشأ في الأنظمة المرتبطة والتحكم فيها. على سبيل المثال، يعاني النماذج اللغوية الكبيرة من “الهلوسة” وتقديم معلومات غير صحيحة، وتشير الأبحاث المستقلة إلى حدوث ذلك بنسبة تصل إلى حوالي 20 في المئة من الوقت، حتى في الأنظمة “الأكثر دقة” المتاحة حاليًا. ونظرًا لتعقيد النماذج، حتى المبتكرين أنفسهم غالبًا لا يستطيعون تفسير سبب أو كيفية حدوث كل حالة “عدم الدقة” المحددة؛ وبالتالي، يكون من الصعب تطوير أساليب منهجية لاكتشاف هذا السلوك أو منعه.

تتطلب حوكمة الأنظمة المعقدة – مثل نظام الذكاء الاصطناعي – من صانعي السياسات، أخذ الاعتبار للآراء المتنوعة، والعواقب غير المقصودة، والسلوكيات الناشئة غير المتوقعة، سواء للأنظمة نفسها أو للبشر الذين يستجيبون لها. نظرًا لأنه يمكن تطوير التطبيقات ونشرها في مجالات قضائية مختلفة ومتعددة، ويمكن أن تتجلى الآثار والتأثيرات عبر قطاعات متعددة، قد لا يكون من الواضح أين تكمن مسؤولية التنظيم. على أقل تقدير، ستتطلب الحوكمة الفعالة تنسيقًا وتعاونًا من أصحاب المصلحة المتعددين. هذا المستوى من التنسيق معقد في حد ذاته، حيث يتغير النظام البيئي باستمرار مع تطوير أنظمة جديدة، ونشر تطبيقات جديدة، واكتساب المزيد من الخبرة.

حتى الآن، كانت التنظيمات في كل من الاتحاد الأوروبي والولايات المتحدة، تعتمد على مفهوم إدارة الخطر، من أجل تقديم ضمانات للمجتمع بأن الذكاء الاصطناعي يتم تطويره ونشره بطريقة تعتبر “آمنة“.

تستمد قواعد الاتحاد الأوروبي من تجارب القارة في اعتماد التنظيم لضمان سلامة المنتجات وحماية الأفراد من الأضرار المعروفة المرتبطة باستخدامات الذكاء الاصطناعي المحددة وانتهاكات الخصوصية. يتم تصنيف الأنظمة وفقًا لتصورات المخاطر التي تشكلها. ويشمل الذكاء الاصطناعي المحظور التلاعب بسلوك الأفراد بطرق معينة غير مرغوب فيها، أو استخدام تقنيات معينة مثل “البيانات البيومترية، والتعرف على الوجه” في ظروف محددة.

لضمان سلامة الذكاء الاصطناعي الذي يشكل مخاطر عالية، يتطلب التوثيق الواسع والمراجعة وما قبل التصديق، الاستفادة بشكل كبير من التشريعات الحالية لمطابقة سلامة المنتجات في الاتحاد الأوروبي. هذه التشريعات تشمل المنتجات مثل: الألعاب، والمعدات الواقية، والمركبات الزراعية والغابات، وتوافق أنظمة الطيران المدني والسكك الحديدية. بالإضافة إلى ذلك، ينبغي أن تركز التشريعات على التطبيقات في المجالات التي تعطى فيها الأولوية للسلامة الجسدية، مثل البنية التحتية الحيوية، أو حيث يمكن أن تنشأ مخاطر الضرر النفسي أو الاقتصادي، مثل: التعليم، والتوظيف، والوصول إلى الخدمات.

أما بالنسبة للتطبيقات ذات المخاطر المنخفضة، فالتشريعات تتطلب فقط الامتثال للالتزامات الشفافية، وتركز على تحسين نتائج القرارات البشرية، حيث يتم السيطرة على اتخاذ القرار النهائي بواسطة صانعي القرار البشريين.

 تتضمن أحكام مكتب إدارة الميزانية الأميركي لاستخدام الذكاء الاصطناعي، قيودًا وتوجيهات أقل من قواعد الاتحاد الأوروبي. ومع ذلك، لا يزال التركيز موجودًا على معالجة فرع محدد من مخاطر الذكاء الاصطناعي وقضايا الحوكمة والابتكار المتعلقة بشكل مباشر باستخدام الوكالات للذكاء الاصطناعي. تتمثل هذه المخاطر بشكل محدد في “اعتماد مخرجات الذكاء الاصطناعي للإبلاغ والتأثير واتخاذ القرار، أو تنفيذ قرارات أو إجراءات الوكالة، والتي يمكن أن تقوض فعالية وسلامة وعدالة ونزاهة وشفافية ومساءلة وملاءمة أو قانونية مثل تلك القرارات أو الإجراءات.”

في كلتا الحالتين، تنشأ المخاطر المعالجة تقريبًا فيما يتعلق بمنتجات محددة وأنشطة وقرارات، أو استخدامات للذكاء الاصطناعي، بدلاً من النظم البيئية المعقدة التي يعملون ضمنها. يتم تحديد الظروف ذات الصلة إلى مجموعة محددة من المواقف والأفعال والعواقب التي تم بالفعل التعرف عليها والتحكم فيها إلى حد كبير. حتى الاستخدامات المحظورة في الاتحاد الأوروبي، محدودة بنتائج محددة تم بالفعل التعرف عليها ووصفها إلى حد كبير. كلاهما يتطلب أن يكون هناك أفراد محددين بالاسم مسؤولين في نهاية المطاف عن الذكاء الاصطناعي وتقاريرهم التنظيمية وإدارتهم.

كلتا المجموعتين من اللوائح لا تناقش عناصر التعقيد، وعدم اليقين، وعدم القابلية للتنبؤ، وعدم التزامن، وعدم القابلية للتجزئة التي تتعلق بالنظم البيئية التي يعمل فيها الذكاء الاصطناعي. في الواقع، لا يوجد أي إشارة واضحة إلى “التعقيد” و”عدم اليقين” في هاتين المجموعتين. يبدو أنه لا يتم إيلاء اهتمام كافٍ للتعاون الواسع بين أصحاب المصالح المختلفين ووجهات النظر المتعددة التي تكون ضرورية لتحكم الأنظمة الديناميكية المعقدة.

ربَّما قد حان الوقت لتبني نهج تنظيمي متواضع والاعتراف بقدرات وقيود هذه اللوائح. فهي لا توفر ضمانات مطلقة للأمان أثناء تقدمنا في تطوير ونشر الذكاء الاصطناعي. كما أنها لا تعترف بما نعرفه وما لا نعرفه وما لا يمكننا معرفته بسبب قيود العقل البشري الذي يشرف على هذه اللوائح. تهدف هذه اللوائح فقط إلى إدارة مجموعة محدودة من المخاطر التي تم التعرف عليها مسبقًا أو التنبؤ بها. يجب علينا التوقع بوجود سلوكيات غير متوقعة ناشئة، واكتشاف أشياء جديدة لم نكن نعرفها أو نفهمها سابقًا بمعزل عن تطور خبرتنا في النظم البيئية الجديدة التي نعمل عليها.

السؤال هو: كيف نتوقع الإدارة في تلك الظروف؟ هذا السؤال يستدعي الحاجة إلى قيادة في مناقشة كيف نرغب في تطوير مجتمعاتنا للتكيف مع هذه التحديات المستمرة. لا يمكننا أن نفترض أن الجهود التنظيمية الحالية التي تركز على الماضي هي كافية أو بديلة للتصدي لهذا التحدي الأكبر والأكثر تعقيدًا. يجب أن تستهدف جهودنا الحالية المستقبل وأن تتجه نحوه، حيث يكمن الغموض بطبيعته.

 المصدر: THE HILL

اترك رد

Your email address will not be published.