جدل حول تنظيم الذكاء الاصطناعي
د. عبد الحق عزوزي
يعد الذكاء الاصطناعي ثورة حقيقية في عمليات البحث على الإنترنت واستخدامات كثيرة أخرى ما زال يتحتم استكشافها، غير أن الخبراء يحذرون من أنه يطرح كذلك مخاطر مثل انتهاك الحياة الخاصة وخلل في الخوارزميات وغيرها، تستدعي تنظيم هذا القطاع، وهو ما يصعب القيام به في ضوء التطور السريع لهذه التقنيات.
وتحاول عشرات الدول الرائدة في مجال الذكاء الاصطناعي وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في مجالات عدة بما في ذلك المجال العسكري، محذرة من «عواقب غير مرغوب فيها»، كتلك المخاوف المتعلقة بـ «مسألة الانخراط البشري» إضافة إلى «انعدام الوضوح على صعيد المسؤولية».
صحيح أن الذكاء الاصطناعي قادر على تحسين حياة الناس والتصدي للعديد من التحديات التي تواجهها مجتمعات اليوم، لكنه قادر أيضاً على أن يزيد بشكل هائل المخاطر حيال الأمن والسلامة، وينتهك الحقوق المدنية والخصوصية، ويزرع الريبة ويفقد الثقة عند جمهور الناس ناهيك عن نشر الأخبار المضللة التي قد تحدث الفتن ما ظهر منها وما بطن.
وقد سبق وأن كتبنا في أعمدة هاته الصحيفة الغراء أن «Chat GPT» التي أطلقتها «OpenAI» في تشرين الثاني/ نوفمبر الفائت، أبهرت المستخدمين بقدرتها على الإجابة بوضوح ودقّة على أسئلة صعبة، لا سيّما كتابة أغان أو شيفرات برمجية، وحتى النجاح في امتحانات.
وبعد فترة قصيرة على إطلاقه، حُظر برنامج «Chat GPT» في مدارس وجامعات عدة حول العالم، بسبب مخاوف تتعلق باستخدامه كأداة للغش في الامتحانات، فيما نصحت مجموعة من الشركات موظفيها بعدم استخدامه.
ونفهم في هذا السياق لماذا دعا الملياردير الأميركي إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي ومديرون تنفيذيون، في رسالة مفتوحة وقعها أكثر من ألف شخص، إلى التوقف لمدة ستة أشهر عن تطوير أنظمة أقوى من روبوت الدردشة تشات جي بي تي الذي أطلقته شركة أوبن إيه.آي في الآونة الأخيرة، مشيرين إلى المخاطر المحتملة لمثل هذه التطبيقات على المجتمع.
كما أشارت الرسالة الصادرة عن معهد فيوتشر أوف لايف (والتي يمولها بالمناسبة كل من مؤسسة ماسك، ومجموعة فاوندرز بليدج ومقرها لندن، فضلاً عن مؤسسة سيليكون فالي كوميونيتي)، إلى وجوب «تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة».
كما نفهم لماذا بدأت بعض الدول من منع هاته المنصات من بلدانها مثل إيطاليا التي منعتها بمبرر أنها لا تحترم التشريعات المتعلقة بالبيانات الشخصية، ولا يوجد عندها نظام للتحقق من عمر المستخدمين القصّر، ولا يجب أن ننسى أن مثل هاته المنصات ستقوي من خطر تنامي الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية.
ومنذ أيام، وفي أول سابقة من نوعها، أعلن البيت الأبيض الأمريكي أن سبع شركات رائدة في مجال الذكاء الاصطناعي التزمت بمجموعة تدابير، لإدارة المخاطر التي تشكلها هذه التكنولوجيا، وهاته الشركات هي أمازون، أنثروبيك، غوغل، إنفليكشن، ميتا (الشركة الأم لـ فيسبوك)، مايكروسوفت، ومنظمة «أوبن إيه أي».
وكجزء من الاتفاق، أعلنت الشركات على اختبار الأمان لأنظمة الذكاء الاصطناعي الخاصة بهم، بواسطة خبراء داخليين وخارجيين قبل إصدارها؛ وعلى التأكد من أن الناس قادرون على اكتشاف الذكاء الاصطناعي، من خلال تطبيق العلامات المائية؛ وعلى الإبلاغ علناً عن قدرات وقيود الذكاء الاصطناعي على أساس منتظم؛ ثم على البحث في مخاطر هذه التقنية مثل التحيز والتمييز وانتهاك الخصوصية.
وفي انتظار أن تقوم إدارة بايدن بإصدار أمر تنفيذي بهذا الشأن، فإن هاته الإجراءات الوقائية الطوعية تعتبر خطوة نحو تنظيم أكثر صرامة لتقنية الذكاء الاصطناعي في الولايات المتحدة الأمريكية والتي نرجو أن تعمم عالمياً، ويجب أن تشمل أيضاً الكشف عن أي مواد محمية بحقوق الملكية الفكرية تستخدمها في تدريب أنظمتها للذكاء الاصطناعي، وأن تقدم الشركات التي تعمل على «تطبيق عالي الخطورة» تقييماً لتأثيره على الحقوق الأساسية والبيئية.