هل يمكن وضع الذكاء الاصطناعي تحت السيطرة؟
د. عبدالحق عزوزي
وأخيرًا اعتمدت الجمعية العامة للأمم المتحدة أول قرار أممي بشأن الذكاء الاصطناعي كان قد حظي برعاية المغرب والولايات المتحدة الأميركية قبل أن يحصل على دعم 123 دولة عضوًا في المنظمة الأممية حين اعتماده؛ وهذا القرار يعدّ خطوة تاريخية نحو وضع معايير دولية واضحة للذكاء الاصطناعي وتعزيز أنظمة آمنة وموثوقة لهذه التكنولوجيا. كما أن هذا النص الأممي الذي يحمل عنوان “اغتنام الفرص التي تتيحها أنظمة الذكاء الاصطناعي الآمنة والموثوقة من أجل التنمية المستدامة” يُبيّن الطريق التي يجب اتباعها في مجال الذكاء الاصطناعي، بحيث يمكن لكل دولة اغتنام الفرص التي تتيحها هذه التكنولوجيا وتدبير مخاطر الذكاء الاصطناعي، كما يشدد على الحاجة إلى مواصلة المناقشات حول مناهج الحكامة الملائمة للذكاء الاصطناعي التي ترتكز على القانون الدولي.
وأتفق تمام الاتفاق مع الدبلوماسي المغربي عمر هلال الذي قام بتقديم القرار في ندوة صحافية مع نظيرته الأميركية السفيرة الممثلة الدائمة للولايات المتحدة لدى الأمم المتحدة، ليندا توماس غرينفيلد، عندما قال إن هذا القرار ليس غاية في حد ذاته، بل بداية مشروع جماعي لتشكيل أنظمة ذكاء اصطناعي آمنة وموثوقة… نعم إنها البداية؛ لأن تطور الذكاء الاصطناعي يحدث بسرعة تفوق الخيال وتفوق كل القوانين وكل الحدود، ومكوناته وتشعباته تتعدى ما ألفه البشر في مجال الاختراعات والتكنولوجيا الحديثة؛ وهذا الكلام نجد له تفسيرًا عندما نفهم الأسباب التي جعلت “عراب الذكاء الاصطناعي” البريطاني الكندي جيفري هينتون يستقيل من “جوجل” في مايو 2023، مبررًا قراره بالقول إنه يريد “التحدث بحرية عن مخاطر الذكاء الاصطناعي”.
وبالفعل، ففي طلاته الإعلامية المتكررة، تحدث هينتون عن مخاطر الذكاء الاصطناعي والبطالة التكنولوجية، وسوء الاستخدام المتعمد لهذا الابتكار، من قبل جهات وصفها بـ”الخبيثة”. وقال: “لقد وصلت إلى استنتاج بأن نوع الذكاء الذي نطوره يختلف كثيرًا عن الذكاء الذي لدينا. نحن أنظمة بيولوجية وهذه أنظمة رقمية، والفرق الكبير أنه مع الأنظمة الرقمية لديك العديد من النسخ من مجموعة الأوزان ذاتها، ومن نموذج العالم ذاته”. قبل أن يضيف: “جميع هذه النسخ تستطيع التعلم بشكل منفصل، لكنها تشارك معرفتها فورًا. فإن كان لديك 10 آلاف شخص، عندما يتعلم شخص واحد شيئًا ما، سيعرفه الجميع تلقائيًا. وهكذا يمكن أن تعرف روبوتات الدردشة أكثر من شخص واحد بكثير”. وقال أيضًا إن الذكاء الاصطناعي “قد يتجاوز قريبًا القدرة المعلوماتية للدماغ البشري”، ووصف بعض المخاطر التي تشكلها برامج الدردشة الآلية هذه بأنها “مخيفة للغاية”.
وقد صدق في قوله؛ لأنه قد أطلعنا منذ أيام إيلون ماسك، الرئيس التنفيذي لشركة “تسلا” الأميركية للسيارات الكهربائية، ومؤسس شركة “OpenAI” لأبحاث الذكاء الاصطناعي، في حديث له على منصة “إكس”، بتطوير ذكاء اصطناعي يفوق أذكى البشر ربما بحلول العام القادم، أو العام التالي له عام 2026؛ أما السموم التي تنبعث من البرامج الآلية، فيمكن استحضار منصات “ChatGPT”، وهي تدخل في إطار الذكاء الاصطناعي اللامتناهي وخلق عقول غير بشرية تفوقنا ذكاء وتتفوق علينا وتحل محلنا؛ وتقوم هذه المنصات بالجمع الجماعي للبيانات الشخصية وتخزينها لغرض تدريب خوارزميات تشغيل المنصة… شخصيًا كأستاذ جامعي يؤطر أطاريح الدكتوراه وأبحاث نهاية الدراسة في الجامعة، أنا ضد تطوير هذه الأنظمة لأننا سنساهم في جلب جيل من الباحثين لا قدرة لهم على الفهم والشرح والتنظير والإبداع… لأن معد أطروحة الدكتوراه مثلاً في العلاقات الدولية والعلوم السياسية الذي يشتغل على النظام الدولي الجديد أو على العقيدة الاستراتيجية الروسية الجديدة أو على الأنظمة الدستورية في إفريقيا، أو على مسألة سوسويولوجيا العلاقات الدولية… سيضع هذه المواضيع على المنصة ويأمرها بعدد الصفحات، وستأتيه المنصة بأعمال جاهزة ودقيقة وتخضع لقواعد الأكاديمية والعلمية؛ والشيء نفسه يقال في ميادين الطب والبيولوجيا وغيرها… والأدهى من ذلك والمصيبة الآزفة، أنه يمكن استخدام “ChatGPT” لكتابة رموز معلوماتية من دون الحاجة إلى امتلاك معرفة تقنية.
ولن نجد نحن المؤطرين مفرًا من قبول هذه الأعمال؛ لأنك ولو بحثت باستخدام كل الأنظمة المعلوماتية المختصة بالبلاجيا، ستجد هذه الأبحاث خالية من النقل وكأنها من تأليف الطلبة والباحثين؛ والنتيجة طبعًا ستكون مدمرة للمجتمعات ومقوضة لأسس الجامعات، وستوقف إعمال العقل والاجتهاد عند الملايين من البشر، وسنُخرج إلى السوق الفكرية أناسًا لا علاقة لهم بالبحث العلمي وسينجحون بسهولة وسيتوفرون في النهاية على دبلومات لا تعكس الشروط المطلوبة… ويجب ألا ننسى أن مثل هذه المنصات ستقوي من خطر تنامي الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية، ناهيك عن الجرائم التي يمكن أن تقترفها المجموعات الإرهابية إذا منحت للروبوتات القدرة على تنفيذ أهدافها.
ولهذا السبب تحاول اليوم العديد من الدول وضع تنظيمات لتطوير الذكاء الاصطناعي واستخدامه في المجال العسكري، محذرة من “عواقب غير مرغوب فيها” وأخرى متعلقة بـ”مسألة الانخراط البشري”، إضافة إلى “انعدام الوضوح على صعيد المسؤولية” و”العواقب غير المقصودة المحتملة”.
في الجامعة الأورومتوسطية بفاس، كنا من السباقين في خلق تكوينات عليا في مجال الذكاء الاصطناعي، وقد تخرج من هذه التكوينات العديد من المهندسين بعضهم يشتغل اليوم في كبريات الشركات العالمية؛ وخلق هذه التكوينات ينطلق من إيماننا بأن الجامعة، وإن كانت لها تخصصات متعددة، فإنها يجب أن تنجح في التموقع بوصفها قبلة في تكوين أجيال المستقبل في التخصصات التي ستفيد بلدانها، وعلى رأسها الذكاء الاصطناعي، ولكن ما نفتأ ندافع عن مسلمة إنسانية وحضارية في هذه التكوينات مفادها بأنه يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية، وأن مخاطرها ستكون تحت السيطرة.
المصدر: الشرق الأوسط