سلطة الذكاء الاصطناعي وإشكاليتها الحادة
AI بالعربي – متابعات
نحن في عام 2035، وانتشر الذكاء الاصطناعي في الأمكنة كلها. إذ تدير أنظمته المستشفيات وتحرك خطوط الطيران وتتبارى ضد بعضها بعضاً في قاعات المحاكم. قفزت الإنتاجية إلى مستويات غير مسبوقة تاريخياً، وتوسعت بسرعة البرق مجموعة لا حصر لها من الأعمال التي تفوق الخيال، مما أدى إلى تقدم واسع في نوعية الحياة وجودتها. وعلى رغم ذلك، يستمر تزايد الهشاشة والفوضى في مسارات الأمور التي تفاقمت عشوائيتها، إذ وجد الإرهابيون طرقاً جديدة لاستخدامها في إلحاق الضررر بالمجتمعات عبر أسلحة سيبرانية تزداد تطوراً، فيما تدخل إلى البطالة مجاميع هائلة من الموظفين الذين يؤدون أعمالاً مرتبطة بمهارات عقلية ومعرفية.
قبل ما لا يزيد على عام، كان السيناريو الذي رسمته الكلمات السابقة يبدو محض خيال، لكن تحققه اليوم بات شبه محتم. وبالفعل، تستطيع أنظمة الذكاء الاصطناعي التوليدي Generative Artificial Intelligence، التفوق على معظم البشر في كتابة نصوص واضحة ومقنعة، وكذلك بات في مكنتها تقديم منتجات أصيلة من الصور والأعمال الفنية وحتى شيفرات الكمبيوتر، بمجرد أن تصدر لها أوامر تحفيزية مناسبة مكتوبة بلغة بسيطة. ولا يشكل الذكاء الاصطناعي التوليدي سوى القمة العائمة لجبل جليد هائل. ويماثل ظهورها لحظة “الانفجار العظيم” Big Bang [أي لحظة ولادة كون كامل]، بمعنى أنها بداية ثورة تغييرية للعالم من شأنها إعادة صوغ السياسات والاقتصادات والمجتمعات.
على غرار موجات تكنولوجية سابقة، تتزاوج في الذكاء الاصطناعي الفرص الهائلة والنمو الفائق، مع الاضطرابات والأخطار الهائلة. وبشكل مغاير للموجات السابقة، سيطلق الذكاء الاصطناعي زلزالاً من التغير النوعي في بنية القوى العالمية وتوازناتها، بسب التهديد الذي يحمله لمؤسسة الدولة الوطنية [أو الدولة – الأمة] في أرجاء العالم. ويرجع ذلك إلى أنه يزعزع وضعية الدول الوطنية التي ألفت أن تكون الأطراف الأساسية الفاعلة في المنظومة الجغرافية – السياسية العالمية. وسواء أقرت الدول الوطنية أو رفضت، فإن صناع الذكاء الاصطناعي ومبتكريه باتوا يشكلون أطرافاً جيو- سياسية فاعلة، مما يعني أن سيادتهم على الذكاء الاصطناعي ستعمق وتعزز نظام “أقطاب التكنولوجيا” العالمي الذي قوامه أن الشركات الكبرى في التكنولوجيا ستمسك في نطاقات أعمالها بزمام نوع من السلطة ترسخت العادة على أن تتولى أمره الدول الوطنية.
أثناء العقد الماضي، أضحت الشركات الكبرى في المعلوماتية والاتصالات المتطورة، أطرافاً فاعلة ومستقلة وذات سيادة، ضمن العوالم الرقمية التي تولت صناعتها بنفسها. ويعمل الذكاء الاصطناعي على تسريع ذلك الاتجاه، بل يوسعه إلى أمدية تتجاوز العوالم الرقمية. إن تعقيد التكنولوجيا وسرعة تطورها وتقدمها يجعل من شبه المستحيل على الحكومات صوغ قوانين مناسبة لذلك، وبالسرعة الملائمة أيضاً. ما لم تلتحق الحكومات بسرعة بذلك الركب الآن، فالأرجح أنها لن تفعل ذلك إلى الأبد.
لحسن الحظ، لقد شرع صناع السياسة في أرجاء المعمورة في التيقظ إلى التحديات التي يفرضها الذكاء الاصطناعي، وانخرطوا في صراع بشأن كيفية السيطرة عليه.
وفي مايو 2023، أطلقت مجموعة “الدول الصناعية السبع الكبرى”، واختصاراً “مجموعة السبع”، مبادرة سمتها “عملية هيروشيما للذكاء الاصطناعي” Hiroshima Artificial Intelligence Process المتكونة من منتدى مكرس لتنسيق حوكمة الذكاء الاصطناعي. في يونيو (حزيران) 2023، أقر البرلمان الأوروبي مشروع قانون عرف باسم “قانون الاتحاد الأوروبي للذكاء الاصطناعي” الذي مثل محاولة شاملة أولى يقدم عليها الاتحاد الأوروبي بهدف إرساء ضوابط تتناول صناعة الذكاء الاصطناعي.
في يوليو 2023، دعا أنطونيو غوتيريش، الأمين العام للأمم المتحدة، إلى تأسيس كيان تشريعي عالمي يتولى مراقبة وضبط الذكاء الاصطناعي. بالتزامن مع ذلك، يدعو سياسيون من جانبي الطيف السياسي الأميركي، للتحرك بشأن تشريعات الذكاء الاصطناعي. لكن، يوافق كثيرون على رأي السيناتور تيد كروز، عضو مجلس الشيوخ عن ولاية تكساس، الذي استنتج في يونيو الماضي أن الكونغرس “ليس لديه نأمة معرفة عن مجريات الأمور”.
لسوء الحظ، يبقى معظم النقاش حول حوكمة الذكاء الاصطناعي أسير الإشكالية الزائفة والخطرة التي تخير بين دعم الذكاء الاصطناعي بهدف توسيع نطاق القوة الوطنية الأميركية أو تقييده بشدة بغية تجنب أخطاره. وحتى أولئك الذين يصيبون في تشخيص المسألة، باتوا يحاولون حلها عبر حشر قسري للذكاء الاصطناعي داخل أطر الحوكمة الحاضرة أو استعادة ما يوازيها من سوابق تاريخية. في المقابل، لا يمكن للحوكمة أن تتعامل مع الذكاء الاصطناعي بمثل ما فعلته مع كل التكنولوجيات السابقة، خصوصاً أنه بات يغير بالفعل المفاهيم التقليدية عن معنى القوة الجيو- سياسية والسلطات المتصلة بها.
لقد أضحى التحدي واضحاً ومتمثلاً في صوغ إطار جديد للحوكمة بشكل يتناسب مع فرادة هذه التكنولوجيا [الذكاء الاصطناعي التوليدي]. إذا سارت عملية إيجاد حوكمة عالمية للذكاء الاصطناعي نحو الاستحالة، فسيتوجب على المجتمع الدولي أن يتخطى المفاهيم التقليدية للسيادة ويرحب بوجود الشركات التكنولوجية على طاولة صنع القرار. ولنلاحظ أن تلك الأطراف الفاعلة [الشركات] لا تستقي شرعيتها من عقد اجتماعي أو ديموقراطية أو تقديم المصالح العامة، لكن غيابها سيضيع فرص صنع حوكمة الذكاء الاصطناعي. واستطراداً، تقدم تلك الصورة مثلاً عن مدى حاجة المجتمع الدولي إلى إعادة التفكير في افتراضته حول النظام الجغرافي السياسي برمته. ولا يعني ذلك أنه مثل وحيد.
ويتطلب بروز تحد ضاغط وغير تقليدي على غرار الذكاء الاصطناعي، إيجاد حلول أصيلة لا تكون تقليداً لحلول أخرى. وقبل أن يشرع صناع السياسة في استخلاص كيفية صنع بنية تشريعية ملائمة، ستبرز حاجتهم إلى التوافق على مبادئ أساسية عن الحوكمة الملائمة للسيطرة على الذكاء الاصطناعي. وفي البداية، سيحتاج أي إطار في الحوكمة إلى التحوط واليقظة والرؤية الشاملة والتحصن حيال التجاوزات والتوجيه الدقيق. استناداً إلى تلك المبادئ، يتوجب على صناع السياسة إيجاد ثلاثة أنظمة متداخلة من الحوكمة، يخصص أولها لإرساء الحقائق وإسداء المشورة إلى الحكومات عن المخاطر التي يفرضها الذكاء الاصطناعي، ويتولى الثاني مهمة منع اندلاع سباق شامل وواسع بين الحكومات في تلك التكنولوجيا، ويتوجه الثالث إلى التعامل مع القوى التخريبية للتكنولوجيا على نحو لم يشهده العالم في أي زمن مضى.
سواء أرضينا أم لا، إن [سيناريو] 2035 آت لا محالة. وسيعتمد الأمر على ما يفعله صناع السياسة الآن للحسم كي تتحدد ملامح 2035 إما بالتقدم الإيجابي المدعوم من الذكاء الاصطناعي أو الاضطرابات السلبية التي يسببها.
الأسرع والأعلى والأقوى
إن الذكاء الاصطناعي شيء مختلف، ويغاير الأنواع الأخرى من التكنولوجيا ويختلف عنها في تأثير سلطته وقوته. ولا يلقي ذلك الاختلاف بتحديات على عالم السياسة وحده، بل إن طبيعته الفائقة التطور في آلياتها تصعب بصورة مطردة، مسألة إيجاد حلول لتلك التحديات. إذاً، يتعلق الأمر تحديداً بالإشكالية المملؤة بالتناقض التي يجسدها الذكاء الاصطناعي.
إذ تتمتع تلك التكنولوجيا بسرعة مذهلة في التطور. لنأخذ قانون مور Moore Law مثلاً. لقد نجح في توقع أن تتضاعف قوة الحوسبة في الآلات الذكية كل عامين. لكن الموجة الجديدة من الذكاء الاصطناعي تجعل سرعة ذلك المسار ضئيلة وساكنة. حينما أطلقت شركة “أوبن إيه أي” Open AI نموذجها اللغوي الكبير الأول Large Language Model، واشتهر بتسمية “جي بي تي 1″GPT-1 ، عام 2018، فإنها زودته بـ117 مليون مؤشر، مع ملاحظة أن مصطلح مؤشر في هذا السياق يشير إلى مستوى تقدم النظام ومدى تعقيده. بعد خمس سنوات، جاء الجيل الرابع من ذلك النموذج اللغوي الكبير، “جي بي تي 4” GPT-4 الذي يعتقد بأنه يحتوي ما يزيد على تريليون مؤشر. إن قوة الحوسبة المستخدمة في تدريب معظم النماذج القوية من الذكاء الاصطناعي، قد تضاعفت 10 مرات كل سنة على مدار السنوات العشر الأخيرة. وبعبارة أخرى، تستعمل النماذج الأكثر تقدماً في الذكاء الاصطناعي، وتسمى النماذج “الريادية”، قوة حوسبة تفوق بـ5 مليارات مرة نظيراتها من النماذج التي نظر إليها بوصفها الأشد تقدماً قبل 10 سنوات. إن معالجة المعلومات والبيانات التي تطلبت أسابيع عدة قبل عقد، باتت لا تستغرق الآن سوى ثوان قليلة. وخلال السنتين المقبلتين، ستظهر نماذج تستطيع التعامل مع تريليونات من المؤشرات. وخلال السنوات الخمس المقبلة، ستظهر نماذج يشار إليها بأنها على “مستوى الدماغ” إذ تحتوي ما يزيد على 100 تريليون مؤشر، مما يوازي تقريباً عدد الوصلات بين كل الأعصاب التي تكون الدماغ البشري.
مع كل مستوى جديد في ضخامة الذكاء الاصطناعي، تظهر قدرات غير متوقعة. لم تتوقع سوى قلة من الخبراء أن تدريب الآلات الذكية على نصوص خام [بمعنى أنها ليست معدة كي تكون جزءاً من عملية التدريب الممنهجة]، ستمكن النماذج اللغوية الكبيرة من إنتاج جمل متناسقة وجديدة، وحتى مبتكرة. وتوقعت قلة أصغر من السابقة، أن تلك النماذج ستغدو قادرة على تأليف الموسيقى أو حل المسائل العلمية، على غرار ما ينهض به بعض النماذج حاضراً. وفي وقت قريب، يرجح أن ينجح مطورو الذكاء الاصطناعي في صنع أنظمة تستطيع تحسين قدراتها بنفسها، مما يشكل منعطفاً حاسماً في مسار تلك التكنولوجيا يتوجب على الجميع التوقف عنده ملياً.
في مسار متصل، تدأب نماذج الذكاء الاصطناعي على تحقيق مزيد من الإنجازات باستخدام جهد أقل. إن ما اعتبر حتى الأمس القريب أعلى المستويات في القدرات التكنولوجية، بات ينجز الآن عبر أنظمة أصغر وأرخص وأسهل استخداماً. خلال ما لم يزد على ثلاث سنوات أعقبت إطلاق “أوبن إيه أي” لنموذجها الكبير “جي بي تي 3″، استطاعت فرق تعمل بالتقنيات المفتوحة المصدر Open Source صنع نماذج تقدم المستوى نفسه من الأداء، لكنها أصغر حجماً من “جي بي تي 3” بـ60 مرة، أي أنها تكون أرخص منها بـ60 مرة حينما يصار إلى الاستفادة منها في الإنتاج، وكذلك فإنها مجانية بصورة تامة ومتوفرة في متناول الجميع عبر الإنترنت. وعلى الأرجح، ستسلك النماذج اللغوية الكبرى هذا المسار في الكفاءة فتضحي متاحة بصيغة المصدر المفتوح بعد سنتين أو ثلاث سنوات من تولي المختبرات الرائدة في الذكاء الاصطناعي إنفاق مئات الملايين من الدولارات على تطويرها.
وعلى غرار مسار الأمور في البرمجيات أو الترميز، فإن خوارزميات الذكاء الاصطناعي أرخص وأشد سهولة في النسخ والمشاركة (أو السرقة) بالمقارنة مع الأصول المادية الفيزيائية الصلبة [على غرار الرقائق الإلكترونية المتطورة مثلاً]. ثمة أخطار واضحة في مسألة تكاثر تلك النماذج. ومثلاً، لقد تسرب النموذج اللغوي الكبير المسمى “إل لاما- 1” Llama- 1، من صنع شركة “ميتافيرس”، ووصل إلى الإنترنت بعيد أيام من إطلاقه في مارس 2023. وعلى رغم أن النماذج الأشد قوة ما زالت بحاجة إلى مكونات مادية كي تؤدي عملها، إلا أن النسخ المتوسطة [بالقياس إلى النماذج الكبيرة] قابلة لأن تشغل على حواسيب يمكن استئجارها لقاء حفنة من الدولارات في الساعة. وفي مثل لمح البصر، ستنتقل تلك النماذج فتوضع على الهواتف الذكية. لم يسبق لأي تكنولوجيا أن بلغت مثل هذه القوة ثم صارت متاحة بصورة واسعة، وفي مدة زمنية قصيرة.
في مسار متصل، يتميز الذكاء الاصطناعي عن التكنولوجيات القديمة بأن معظمه يقع ضمن ما يسمى “الاستخدام المزدوج”، بمعنى أنه يمتلك تطبيقات مدنية وعسكرية معاً. وتتميز أنظمة عدة منه بأن العمومية ملمح أصيل فيها، وبالتأكيد، تشكل العمومية هدفاً لعدد من شركات الذكاء الاصطناعي. ويعني ذلك أنها ترغب في أن تساعد أنظمتها أكبر عدد ممكن من الناس، وبأقصى الطرق تعدداً. في المقابل، إن الأنظمة التي تستطيع قيادة سيارة تقدر أيضاً على قيادة دبابة. وإذا صنع تطبيق في الذكاء الاصطناعي كي يشخص الأمراض، فقد يتمكن أيضاً من صنع عنصر مرضي قاتل، بل تحويله إلى سلاح كذلك. وبشكل أصيل، تتباهت الحدود بين ما هو مأمون ومدني في تلك الأنظمة الذكية وبين العسكري التدميري منها. ولعل ذلك ما يفسر جزئياً سبب تقييد الولايات المتحدة تصدير أشباه الموصلات الأكثر تقدماً إلى الصين.
استكمالاً، تؤدي تلك العوامل كلها عملها على مستوى عالمي. وبمجرد إطلاقها، تستطيع نماذج الذكاء الاصطناعي الانتشار في الأمكنة كلها، بل إنها ستغدو كذلك. ويكفي وجود نموذج خبيث أو “مخترق” واحد كي يحدث الخراب العميم. وبالتالي، لا يمكن وضع تنظيم الذكاء الاصطناعي بطريقة تجميع القطع [بمعنى أن تنهض كل دولة بصنع تشريع وقوانين معينة، ثم يصار إلى تجميعها مع بعضها بعضاً]. ليس سوى فائدة ضئيلة من وضع تشريعات عن الذكاء الاصطناعي في بعض البلدان، إذا بقي خارج أطر التشريع في بلدان أخرى. ولأن الذكاء الاصطناعي يتكاثر بسهولة، يجب عدم ترك أية ثغرات في حوكمته.
وبالتالي، يكمن الأمر الأعمق في أن الخراب الذي قد يحدثه الذكاء الاصطناعي ليس له من سقف واضح، حتى مع التعاظم المستمر للحوافز التي تدفع إلى صنعه (وكذلك الحال بالنسبة إلى الفوائد المتأتية من تلك الصناعة). وقد يستخدم الذكاء الاصطناعي في توليد معلومات مغلوطة ومسممة توهن الديمقراطية والثقة الاجتماعية، ومراقبة المواطنين والتلاعب بهم والعمل على إخضاعهم مما ينسف أسس الحرية الفردية والجماعية، أو صناعة أسلحة رقمية أو مادية تهدد أرواح البشر. كذلك يستطيع الذكاء الاصطناعي تدمير ملايين الوظائف، مما يفاقم التفاوتات الموجودة بالفعل ويصنع أنواعاً جديدة منها، وتعميق أنماط التمييز وتشويه عملية صنع القرار عبر تضخيم مسارات التغذية الراجعة المتأتية من نشر المعلومات المغلوطة، وإشعال مساحات تصعيد عسكرية غير مقصودة لكنها قد تقود إلى حروب.
وكذلك لا يتسم بالوضوح مدى الإطار الزمني لحدوث الأخطار الأضخم [المتأتية من الذكاء الاصطناعي]. إن انتشار المعلومات المغلوطة عبر الإنترنت يمثل تهديداً واضحاً قصير الأمد، وبالمقدار نفسه فإن حدوث أعمال حربية بطرق مؤتمتة يقع ضمن الأخطار المتوسطة الأمد. وإذ يلوح في الأفق وعد بصنع الذكاء العام الاصطناعي Artificial General Intelligence، فإنه ليس واضحاً اللحظة الزمنية التي قد يتجاوز فيها الأداء البشري في الأعمال والمهمات كلها، وحينها سيترافق ذلك مع خطر (مع الاعتراف صراحة بأنه تخمين) أن يمتلك الذكاء العام الاصطناعي القدرة على توجيه نفسه بنفسه، وإعادة إنتاج نفسه وتحسين نفسه بطرق خارجة عن السيطرة البشرية. وبالتالي، يجب إدخال تلك الأخطار كلها في صلب تصميم الحوكمة للذكاء الاصطناعي، منذ لحظة بدايتها.
وبين أنواع التكنولوجيا، ليس الذكاء الاصطناعي أول تقنية تحمل بعض السمات القوية لكنه التكنولوجيا الأولى التي تجمعها كلها. إذ لا يتشابه مع السيارات أو الطائرات التي تبنى من أدوات صلبة قابلة للتحسين في ما تأتي معظم مناحي الفشل فيها من الحوادث المنفردة. وليست أنظمة الذكاء الاصطناعي كالأسلحة الكيماوية أو النووية، التي تتسم بالصعوبة والكلفة الباهظة سواء في صنعها أو تخزينها، إضافة إلى متطلباتها في السرية والاستعمال. ولأن فوائدها الجمة واضحة بينة، سوى لن تغدو أنظمة الذكاء الاصطناعي إلا أفضل وأرخص وأضخم، إضافة إلى تعاظم انتشارها الشامل. حتى أنها ستتمتع بالقدرة على التسيير الذاتي، ولو بصورة غير أصيلة تماماً، بمعنى أنها ستغدو قادرة على تحقيق أهداف محددة في ظل الحد الأدنى من الإشراف البشري، إضافة إلى امتلاكها قدرة كامنة على أن تحسن نفسها. من شأن أي من تلك الملامح والمزايا أن يتحدى النماذج التقليدية في الحوكمة، أما اجتماعها سوية فمن شأنه أن يجعل نماذج الحوكمة كلها غير كفؤة بشكل يدعو إلى القنوط.
أقوى من أن توقف
إذا لم تكف كل المعطيات السابقة، فيكفي أن نضيف إليها قدرة الذكاء الاصطناعي على إحداث قفزات في تركيب وتوازن منظومة القوى العالمية مع ما يرافقها من تعقيدات حتى في صلب المسار السياسي الذي يتولى حوكمتها. لا يختزل الذكاء الاصطناعي بكونه تطوير برمجيات بالطريقة المعتادة، بل إنه يشكل وسائل جديدة في فرض السلطة. أحياناً، سيقلب السلطات المسيطرة، فيما سيعززها في حالات أخرى. أبعد من ذلك، يسير تطور الذكاء الاصطناعي بدفع من حوافز لا يمكن مقاومتها، إذ سيرغب كل شعب وفرد ومؤسسة في أحد أشكالها.
وفي بلدان عدة، سيعزز الذكاء الاصطناعي قوة من يسخرونه في مراقبة مجاميع السكان وخداعها بل حتى السيطرة عليها، فيما سيعمل في البلدان الديمقراطية على فرض مزيد من الأكلاف على جمع المعلومات الشخصية واستخدامها تجارياً، وكذلك سيصقل أدوات القمع التي تستعملها الحكومات الاستبدادية في إخضاع مجتمعاتها.
وبطريقة عابرة للبلدان، سيضحي الذكاء الاصطناعي محطاً لتنافس جيو- سياسي مكثف. وسواء تعلق الأمر بقدراته في القمع، أو إمكاناته الاقتصادية أو فوائده العسكرية، سيصبح التفوق في الذكاء الاصطناعي غاية استراتيجية لكل حكومة تملك القدرة على خوض غمار التنافس في مضماره. ستتمثل الاستراتيجيات الأكثر مباشرة والأقل ابتعاداً عن الخيال، في ضخ الأموال بغية صنع نماذج وطنية متفوقة أو محاولة صنع كومبيوترات خارقة وخوارزميات، مع السيطرة عليها أيضاً. في المقابل، ستسعى استراتيجيات أكثر تلوناً إلى احتضان فوائد تنافسية محددة، على غرار سعي فرنسا إلى تحقيق ذلك عبر الدعم المباشر للشركات الناشئة في الذكاء الاصطناعي، وكذلك المملكة المتحدة عبر الاستثمار في جامعاتها المتفوقة عالمياً ونظامها المالي المحتضن للاستثمارات المباشرة، والاتحاد الأوروبي عبر السعي إلى وضع بصمته على الحوار العالمي بشأن التشريعات والقوانين والمعايير.
في المقابل، تفتقر الغالبية الواسعة من البلدان إلى المال أو المعرفة التكنولوجية، وكلاهما ضروريان للتنافس على قيادة الذكاء الاصطناعي. وبدلاً من ذلك، ستتحدد قدرة تلك الغالبية في الوصول إلى الأنظمة الريادية للذكاء الاصطناعي بمدى علاقاتها مع حفنة من الشركات والدول الغنية والقوية بالفعل. وتحمل هذه التبعية خطر مفاقمة التفاوتات في القوة الجيو- ستراتيجية الموجودة فعلياً. إذ ستتوق الحكومات الأكثر قوة إلى السيطرة على المصادر الأعلى قيمة في العالم، فيما ستتخلف، مرة أخرى، بلدان الجنوب العالمي عن الركب. ولا يلمح ذلك إلى أن البلدان الأغنى ستحصد فوائد ثورة الذكاء الاصطناعي. وعلى غرار الإنترنت والهواتف الذكية، ستتكاثر أنظمة الذكاء الاصطناعي متجاوزة الحدود بين البلدان، وكذلك الحال بالنسبة إلى المكاسب في الإنتاجية التي ستطلقها تلك الأنظمة. وعلى غير مجريات الأمور في تكنولوجيات الطاقة التقليدية والخضراء، سيقدم الذكاء الاصطناعي فوائد إلى بلدان عدة لا تتحكم به، بما في ذلك تلك التي ستسهم في إنتاج مدخلات تلك التكنولوجيا مثل أشباه الموصلات.
في المقلب الآخر من الطيف الجيو- سياسي، ستشتد المنافسة الشرسة على التفوق في الذكاء الاصطناعي. وحينما ستقترب تلك الحرب الباردة من خواتيمها، لربما تعاونت الدول القوية في تخفيف مخاوفها المتبادلة مما سيؤول إلى لجم سباق تسلح تكنولوجي يتضمن احتمالات مزعزعة للاستقرار العالمي. لكن، يعمل المناخ الجيو- سياسي المشحون بالتوتر على جعل مثل ذلك التقارب أمراً متزايد الصعوبة. ويرجع ذلك إلى كون الذكاء الاصطناعي لا يختزل بكونه أداة أخرى أو سلاحاً آخر قد يرفع من مكانة الدول وقوتها وثروتها. إذ تشمل إمكاناته الكامنة رفع المكانة العسكرية والاقتصادية فوق مستوى الخصوم. وسواء صح ذلك أم لا، فإن اللاعبين الأكثر وزناً [في ذلك التنافس] هما الولايات المتحدة والصين. وتنظر كلتاهما إلى الذكاء الاصطناعي بوصفه لعبة صفرية [مما يكسبه طرف يخسره الآخر بالضرورة] سينال الرابح فيها مكانة استراتيجية حاسمة ومقررة على مدار العقود المقبلة.
من وجهة نظر واشنطن وبكين كلتيهما، يفوق خطر أن يحوز الطرف الآخر قصب السبق في الذكاء الاصطناعي، كل الأخطار النظرية التي قد تفرضها التكنولوجيا على المجتمع أو السلطة السياسية المحلية. ولذا، تصب حكومتا الصين والولايات المتحدة موارد هائلة في تطوير القدرات في الذكاء الاصطناعي، مع العمل في الوقت نفسه على حرمان الطرف الآخر المدخلات اللازمة للتوصل إلى الاختراقات التكنولوجية في الجيل المقبل. (حتى الآن، تفوقت الولايات المتحدة كثيراً على الصين في ذلك المنحى [الحرمان من تلك المدخلات]، خصوصاً في ما يتعلق بضبط صادراتها من أشباه الموصلات المتقدمة). وتعني تلك الآلية من اللعبة الصفرية، مع غياب ثقة كل طرف بالآخر، أن بكين وواشنطن تركزان على تسريع تطوير الذكاء الاصطناعي بأكثر من اهتمامهما بإبطاء وتيرته. ومن وجهتي نظرهما، إن “تعليق” تطوير الذكاء الاصطناعي بهدف تقييم مخاطره، ودعا إلى ذلك الأمر قادة في صناعة التكنولوجيا، لا يشبه سوى الإقدام بغباء على نزع السلاح من جانب واحد.
في المقابل، تفترض تلك المقاربة أن الدول تستطيع تشديد قبضتها باستمرار على الذكاء الاصطناعي، ولو بصورة جزئية في الأقل. قد ينطبق ذلك على حالة الصين التي أدمجت شركاتها في التكنولوجيا ضمن نسيج تركيبة الدولة. لكن، بالنسبة إلى الغرب وبقية العالم، يرجح أن يعمل الذكاء الاصطناعي على زعزعة سلطة الدولة أكثر من تعزيزه لها. خارج الصين، إن حفنة قليلة من الشركات المتخصصة في الذكاء الاصطناعي تتولى السيطرة راهناً على كل ملامح تلك الموجة الجديدة من التكنولوجيا. ويشمل ذلك سيطرتها على كل ما تستطيع النماذج أن تفعله، ومن يستطيع الوصول إليها، وكيف يمكن استعمالها وأين يكون مستطاعاً توظيفها. ولأن تلك الشركات تحرص بغيرة واضحة على حراسة خوارزمياتها وقدراتها في الحوسبة، فإنها وحدها تفهم ما الذي تبتدعه (أو معظم ذلك)، وما الذي تستطيع تلك الإبداعات أن تنهض به (أو معظم ذلك). وقد تحتفظ تلك الحفنة من الشركات بما تمتلكه من الأفضليات وتستبقيه في خدمتها خلال المستقبل القريب. ويرجع ذلك إلى أنها إذا فعلت عكس ذلك [أي تخلت عن الحراسة الشرسة لتقنياتها]، فقد تتخطاها مجموعة من اللاعبين الصغار في ما سيحصل تكاثر منفلت بأثر من خفض القيود على الوصول [إلى الأنظمة المتطورة من الذكاء الاصطناعي]، والتطور في النماذج التي تصنع بالمصادر المفتوحة، وانخفاض التكاليف إلى ما يشبه الصفر [بمعنى أن تغطي الأرباح الكلفة]. وفي الحالتين كلتيهما، ستحدث ثورة الذكاء الاصطناعي خارج أطر الحكومات.
بصورة محدودة تماماً، تتشابه بعض تلك التحديات مع تلك التي رافقت الأشكال المبكرة من التقنيات الرقمية. إن منصات الإنترنت والسوشيال ميديا، وحتى أجهزة كالهواتف الذكية، تعمل كلها ضمن سيطرة صناعها ومبتكريها. وحينما استجمعت الحكومات إرادتها السياسية، استطاعت صنع وتنفيذ أنظمة تشريعية بشأن تلك التقنيات، وفق ما تبدى في الاتحاد الأوروبي عبر “قانون حماية البيانات العامة” General Data Protection Regulation، و”قانون الأسواق الرقمية” Digital Markets Act, و”قانون الخدمات الرقمية” Digital Services Act. لقد استغرقت بلورة تلك القوانين في الاتحاد الأوروبي 10 سنوات وأكثر، لكنها لم تتحقق على أرض الواقع بشكل كامل في الولايات المتحدة. في المقابل، يتحرك الذكاء الاصطناعي بأسرع بكثير مما يستغرقه صناع السياسة في الاستجابة عبر الإيقاع المعتاد لعملهم. أكثر من ذلك، لا تساعد السوشيال ميديا والتقنيات الرقمية الأخرى في ابتكار نفسها [إشارة إلى أن الذكاء الاصطناعي يتطور ذاتياً باستمرار]، وكذلك لا تكون المصالح التجارية والاستراتيجية التي تعطي قوة دفع لتلك التقنيات، في وضعية الالتحاق بها. إن “تويتر” و”تيك توك” قويان، لكنهما لا يحدثان تغييراً انتقالياً في الاقتصاد العالمي، إلا في نظر قلة من الناس.
ويستخلص من تلك الأمور كلها أنه خلال السنوات القليلة المقبلة، سيتحدد مسار الذكاء الاصطناعي بقرارت تتخذها حفنة من المصالح الخاصة، بغض النظر عما سيفعله صناع السياسة في بروكسل أو واشنطن. وبكلمات أخرى، سيمسك التقنيون، وليس البيروقراطيون أو صناع السياسة، بزمام قوة تستطيع أن تبدل بعمق سلطة الدولة الوطنية وعلاقاتها مع بعضها بعضاً. وبالتالي، سيؤول الأمر إلى جعل التحدي المتمثل بالسيطرة على الذكاء الاصطناعي مغايراً لكل ما واجهته الحكومات من قبل، وكذلك سيغدو التوصل إلى صوغ تشريعات متوازنة أشد حساسية من كل ما تعامل معه صناع السياسة، إضافة إلى أن المصالح المرهونة به أعلى بكثير.
هدف متحرك وسلاح يتطور باستمرار
لقد باتت الحكومات متخلفة عن الركب فعلياً. إذ تنحو معظم الاقتراحات بشأن السيطرة على الذكاء الاصطناعي، إلى التعامل معه كأنه مسألة تقليدية تخضع للحلول المتمحورة حول الدول في القرن الـ20. وتتمثل تلك الحلول في التوصل إلى تسويات تفاوضية بشأن قوانين يقترحها القادة السياسيون. لكن، لا يجدي ذلك الأمر مع الذكاء الاصطناعي.
في ذلك الصدد، ما برحت الجهود التشريعية في الطفولة ولا تزال غير ملائمة. ويمثل “قانون الاتحاد الأوروبي عن الذكاء الاصطناعي” المحاولة الأكثر طموحاً في السيطرة على الذكاء الاصطناعي عبر سلطة القانون، لكن لن يطبق إلا في بداية 2026، وحينها ستكون نماذج الذكاء الاصطناعي تقدمت بأبعد من المتصور. لقد اقترحت المملكة المتحدة مقاربة لتشريعات الذكاء الاصطناعي تستند إلى الطوعية والخسارة المتعادلة، لكن ذلك يفتقد إلى الأنياب اللازمة كي تعطيه فاعلية على الأرض. لم تسع المبادرتان كلتاهما [الأوروبية والبريطانية] إلى السيطرة على تطوير الذكاء الاصطناعي وتوظيفه، على مستوى عالمي، وذلك أمر ضروري كي تنجح حوكمة الذكاء الاصطناعي. وثمة ترحيب بالعهود الطوعية عن احترام التوجيهات المتعلقة بمأمونية الذكاء الاصطناعي، على غرار تلك التي قطعها على أنفسهم سبع من كبريات شركات تطوير الذكاء الاصطناعي، من بينهم شركة يقودها أحد كاتبي هذه المقالة (سليمان). في المقابل، لا تصلح تلك العهود أساساً لإرساء تشريعات تنظيمية ملزمة قانونياً على المستويين الوطني والدولي.
يميل مؤيدو التوصل إلى اتفاقات عالمية من أجل الذكاء الاصطناعي إلى استدعاء نموذج اتفاقات السيطرة على الأسلحة النووية. في المقابل، ثمة سهولة في صنع وسرقة ونسخ أنظمة الذكاء الاصطناعي، لا يمكن مقارنتها مع الأسلحة النووية، إضافة إلى أنها تكنولوجيا تسيطر عليها الشركات لا الحكومات. وفيما تواصل نماذج الجيل الجديد من الذكاء الاصطناعي الانتشار بأسرع من أي وقت مضى، تبدو المقارنة مع الأسلحة الذرية منتهية الصلاحية بصورة متزايدة. وحتى إذا سيطرت الحكومات بنجاح على الوصول إلى المواد اللازمة لبناء معظم نماذج الذكاء الاصطناعي الأكثر تقدماً، على غرار ما تحاول إدارة بايدن فعله عبر منع الصين من حيازة رقاقات إلكترونية متقدمة، فإن الحكومات لن تستطيع فعل إلا شيئاً قليلاً في منع انتشار وتكاثر النماذج الذكية التي تكون تدربت [في الشركات الكبرى للذكاء الاصطناعي التوليدي] وبالتالي لم تعد بحاجة إلا إلى حفنة من الرقاقات كي تنطلق في عملها.
واستطراداً، إن التوصل إلى إرساء حوكمة عالمية للذكاء الاصطناعي يتطلب أن تصمم بدقة كي تتعامل مع الطبيعة الخاصة لتلك التكنولوجيا والتحديات التي تفرضها، إضافة إلى المنظومة وتوازنات القوى التي تعمل في إطارها. لكن لأنه ليس مستطاعاً توقع أخطار واستعمالات وتطوير ومكاسب الذكاء الاصطناعي، يستحيل التوصل إلى تحديد كامل مواصفات حوكمتها من لحظة البداية، بل حتى في أية مرحلة زمنية، في ذلك السياق. بالتالي، يتوجب على الحوكمة المنشودة أن تتمتع بالابتكار والتطور بما يوازي التكنولوجيا التي تسعى إلى السيطرة عليها. وكذلك يتوجب على تلك الحوكمة أن تتشارك في المقام الأول، بعض الميزات التي تعطي الذكاء الاصطناعي قوته الهائلة. ويعني ذلك البدء من المربع الأول، وإعادة التفكير وتجديد البناء، بشأن إيجاد إطار تشريعي يبنى من الأسفل إلى الأعلى.
وكذلك يجب أن يتحدد الهدف الأعلى لأي تصميم في التشريعات المنظمة للذكاء الاصطناعي، بتعريف المخاطر يتعرض لها الاستقرار العالمي بأثر من تلك التكنولوجيا، وسبل العمل على تخفيفها، مع مراعاة عدم خنق الابتكارات في الذكاء الاصطناعي والفرص التي تتأتى منه. ولنسم هذه المقاربة “الحكمة التكنولوجية” technoprudentialism التي تتطلب دوراً واسع الحكمة على غرار ذلك الذي تؤديه المؤسسات المالية الدولية كـ”هيئة الاستقرار المالي” و”بنك التسويات العالمي” و”صندوق النقد الدولي”.
إذاً، يجب أن تعمل سلطة “الحكمة التكنولوجية” بشكل مماثل لتلك المؤسسات، مما يفرض ضرورة إيجاد آليات مؤسساتية في التعامل مع مناح متنوعة في الذكاء الاصطناعي، هي التي قد تهدد الاستقرار الجيو- سياسي العالمي. وبالتالي، يستلزم الأمر أن توجه تلك الآليات بمبادئ مشتركة تصمم بدقة كي تتعامل مع الملامح المميزة للذكاء الاصطناعي من جهة، وتعبر عن التوازن الجديد في ميزان القوى التكنولوجي الذي أدى إلى وضع شركات التكنولوجيا في قمرة القيادة. من شأن تلك المبادئ أن تساعد صناع السياسة في رسم أطر تشريعية أكثر تفصيلاً وواقعية، بغية السيطرة على الذكاء الاصطناعي في الوقت الذي ستتابع فيه تلك التقنية تطورها وتغدو أشد قوة وصرامة وتدخلاً.
وبالتالي، يمثل الحذر المبدأ الأول وربما الأكثر حيوية، في حوكمة الذكاء الاصطناعي. ووفق ما يشي به المصطلح، فإن الأمر المركزي في “الحكمة التكنولوجية” يتجسد في قيادتها عبر الشعار الأساس في الحذر، أي عدم إحداث أي ضرر. إن التطرف في التضييق على الذكاء الاصطناعي يعني إزالة الجوانب الإيجابية في قدراتها على تغيير الحياة، في المقابل، إن التطرف في إعطاء الحرية لتلك التكنولوجيا يعني المخاطرة بالتعرض لجوانبها السلية الكوارثية. بعبارة أخرى، ثمة عدم تكافؤ بين الأخطار والمكاسب في ملف الذكاء الاصطناعي. ومع ملاحظة انعدام التيقن في شأن المدى الذي تصل إليه بعض الأضرار الكامنة في الذكاء الاصطناعي، وكذلك مدى القدرة على إصلاح ما تخربه، فإن حوكمة الذكاء الاصطناعي يجب أن تهدف بالضرورة إلى منع الأخطار قبل تحققها، بأكثر من السعي إلى تخفيف الأضرر بعد وقوعها. تمتلك تلك الوقاية أهمية كبرى لأن الذكاء الاصطناعي قد يضعف الديمقراطية في بعض البلدان، مما يصعب عليها تفعيل التشريعات الملائمة. أبعد من ذلك، يجب أن يتولى صناع الذكاء الاصطناعي ومالكيه مسؤولية إثبات أن الأنظمة التي يصنعوها تمتلك مستوى من المأمونية يتجاوز الحد الأدنى. بالتالي، يلقى على كاهل الحكومات وحدها وبصورة حصرية، مهمة التعامل مع المشكلات [المتأتية من الذكاء الاصطناعي] حين وقوعها.
في ملمح متصل، يتوجب على حوكمة الذكاء الاصطناعي أن تتمتع باليقظة والحذاقة بما يمكنها من التأقلم وتصحيح المسار بالتوازي مع تطور تلك التقنية وعملها على تحسين نفسها بنفسها. وفي حال الذكاء الاصطناعي، فإن الإيقاع السريع للتقدم في التكنولوجيا سيتجاوز بسرعة قدرة بنيات الحوكمة في الالتحاق بها ومواكبتها. لا يعني ذلك أن تتبنى حوكمة الذكاء الاصطناعي شعار “تحرك بسرعة وحطم الأشياء” المندرج في منظومة قيم “وادي السيليكون”، بالأحرى يتوجب بها أن تعبر عن طبيعة التكنولوجيا التي تسعى إلى السيطرة عليها.
إضافة إلى الحذر واليقظة، يتوجب على حوكمة الذكاء الاصطناعي أن تكون شاملة واستيعابية، فتستدعي مشاركة كل الأطراف الفاعلة المطلوبة في صوغ تشريعات الذكاء الاصطناعي. ويعني ذلك أن حوكمة الذكاء الاصطناعي يجب ألا تتمحور حول الدولة، لأن الحكومات لا تفهم تلك التقنية ولا تسيطر عليها. في المقابل، قد تفتقد شركات التكنولوجيا إلى السيادة بالمعنى التقليدي، لكنها تمسك بسلطة، بل حتى سيادة، تفويض في الفضاءات الرقمية التي صنعتها، وتستمر في التحكم بها. إن تلك الأطراف الفاعلة غير الدولاتية يجب ألا تنال الحقوق والسلطات التي تحوزها الدول التي يسود إقرار دولي بأنها تعمل لمصلحة مواطنيها. إذاً، يجب أن يتشارك الطرفان [الدول والشركات] في حضور القمم الدولية، ويوقعا معاً كل الاتفاقات بشأن الذكاء الاصطناعي.
لقد بات توسيع الحوكمة ضرورياً لأن أية بنية تشريعية ستغدو محكومة بالفشل، إذا سعت إلى استثناء الفاعلين الحقيقيين في سلطة الذكاء الاصطناعي. في الموجات السابقة من التشريعات التكنولوجية، أبدت الشركات تساهلاً كثيراً حيال تعدياتها، مما قاد المشرعين وصناع السياسة إلى الانقضاض بشراسة على تجاوزاتها. لكن تلك الآلية لم تفد شركات التكنولوجيا ولا الجمهور العام. إن دعوة مطوري الذكاء الاصطناعي إلى المشاركة في عملية صنع الحكم من بدايتها، قد تسهم في إرساء ثقافة تعاون بشأن حوكمة الذكاء الاصطناعي، مما يقلص حاجة تلك الشركات إلى ممارسة السيطرة التي تأتت من التجربة الفعلية مع التشريعات المكلفة التي تعاملت معها بوصفها خصماً.
واستطراداً، لا يعني ذلك أن الشركات يجب أن تشارك في القرار دائماً، لأنه يفضل ترك بعض مناحي حوكمة الذكاء الاصطناعي بيد الحكومات. واستكمالاً، من البديهي التشديد على أن الدول يجب أن تحتفظ دوماً بالقول الفصل وسلطة حق النقض، في القرار. كذلك يجب أن تحترس الحكومات حيال وزن الممسكين بالتشريعات كي تضمن ألا تستعمل شركات التكنولوجيا نفوذها ضمن الأنظمة السياسية في تقديم مصالحها على منفعة عموم الناس. إذاً، فمن شأن نموذج للحوكمة يستند إلى الاشتمال والتعددية في أصحاب المصلحة، أن يضمن انخراط والتزام الأطراف الفاعلة في عملية صنع السلطة التي ستحسم مصير الذكاء الاصطناعي. وإضافة إلى الحكومات (خصوصاً، وليس حصراً، الصين والولايات المتحدة) وشركات التكنولوجيا (خصوصاً، وليس حصراً، الشركات العملاقة)، فإن العلماء والمتخصصين بالأخلاق ونقابات العمال ومنظمات المجتمع المدني وأصوات أخرى تكون متمتعة بالمعرفة، أو السلطة أو لديها مصلحة في مآلات الذكاء الاصطناعي، يجب أن يكون لها موقعها في الحوكمة المنشودة. ويظهر مثل جيد عن المنصة المطلوبة من ذلك المزيج المتخالط والاشتمالي، متجسداً بـ”الشراكة من أجل الذكاء الاصطناعي” Partnership on AI، المجموعة التي لا تتوخى الربح وتتولى عقد لقاءات لنشر مفهوم الاستعمال المسؤول للذكاء الاصطناعي تشمل شركات التكنولوجيا العملاقة ومؤسسات البحوث ومنظمات خيرية وتنظيمات المجتمع المدني.
كذلك تتمتع حوكمة الذكاء الاصطناعي بمناعة ضد الاختراق، إلى أقصى حد ممكن. على غير الحالة في تخفيف تأثيرت التغير المناخي التي يعتمد النجاح فيها على حاصل جمع الجهود المستقلة، فإن أمن الذكاء الاصطناعي يعتمد على القاسم المشترك الأصغر، بمعنى أن خروج معادلة خوارزمية مفردة قد يؤدي إلى خراب لا يوصف. بالتالي، ترتسم جودة الحوكمة العالمية للذكاء الاصطناعي، عند الحد الذي يرسمه الأداء الأسوأ على صعيد البلدان أو الشركات أو التكنولوجيات. استطراداً، يجب أن تكون الحوكمة العالمية حصينة وغير قابلة للاختراق في الأمكنة كلها، عبر سهولة فائقة في الانضمام إليها من جهة، وتكبيد خسارة باهظة لمن يخرج عن التجاوب معها. إذ يكفي حدوث اختراق وحيد أو رابط إلكتروني ضعيف منفرد أو وجود متمرد لوحده، كي ينفتح الباب أمام تسرب واسع أو أطراف فاعلة شريرة أو سباق تشريعي نحو الهاوية [بمعنى التسابق على التساهل المفرط].
إضافة إلى تغطيتها الكرة الأرضية بأسرها، يتوجب على حوكمة الذكاء الاصطناعي أن تغطي سلاسل الإمدادات كلها، بداية من المصنعين ووصولاً إلى الأجهزة والبرمجيات والخدمات ومقدمي التقنيات إلى الجمهور. ويعني ذلك فرض تشريعات “الحكمة التكنولوجية” وإشرافها على كل محطة في سلاسل القيمة للذكاء الاصطناعي، بداية من إنتاج الرقاقات ووصولاً إلى تجميع البيانات وتدريب النماذج على الاستخدام النهائي، وكل المجاميع التكنولوجية المستخدمة في أي تطبيق رقمي. إذ سيضمن ذلك النوع من الحصانة ضد الاختراق، عدم وجود مساحات رمادية قابلة للاستغلال.
أخيراً، ثمة حاجة إلى أن تصاغ حوكمة الذكاء الاصطناعي بطريقة موجهة بدل من الاعتماد على نموذج أحادي يفترض أن يناسب الجميع. ولأن الذكاء الاصطناعي يمثل تكنولوجيا شاملة المرامي، فإنها تطرح تحديات متعددة الأبعاد. ولن تكفي أية أداة للحوكمة بمفردها كي تتعامل مع المصادر المختلفة لخطورة الذكاء الاصطناعي. من الناحية العملية، إن الجزم بشأن أي من الأدوات تتناسب مع استهداف أي من الأخطار، يتطلب تطوير تعريفات متجددة ونابضة بالحياة بشأن كل التأثيرات المحتملة المتصلة بالذكاء الاصطناعي، وكذلك الحالة بالنسبة إلى أفضل الطرق في السيطرة عليها. ومثلاً، سيتبين أن الذكاء الاصطناعي يعمل بشكل تطوري في بعض التطبيقات، مما يفاقم مشكلات ظهرت بالفعل كالتعدي على الخصوصية، لكنه قد يسير بشكل ثوري في تطبيقات أخرى، فيصنع أنواعاً جديدة من الأضرار. في بعض الأحيان، سيتمثل أن أفضل نقطة للتدخل [بالنسبة إلى الحوكمة] بالأمكنة التي تجمع البيانات فيها. في أحيان أخرى، سيتجسد ذلك في نقطة بيع الرقاقات الإلكترونية، بغية ضمان عدم وقوعها في الأيدي السيئة. وكذلك يتطلب التعامل مع المعلومات المغلوطة والمضللة استعمال أدوات مختلفة عن تلك التي تتعامل مع أخطار الذكاء العام الاصطناعي وغيره من التكنولوجيات التي ينعدم التيقن بشأنها لكها قد ترتبط بتشعبات وجودية الطابع. في بعض الحالات، سيجدي التدخل الأخف للتشريعات بالترافق مع توجيه طوعي، أما في حالات أخرى، فتحتاج الحكومات إلى فرض التجاوب معها بصورة صارمة.
وبالتالي، تتطلب تلك المعطيات كلها تفهماً عميقاً ومعرفة متجددة باستمرار، بشأن التكنولوجيات موضع المساءلة. ويجب على المشرعين والسلطات الأخرى الإشراف على النماذج المحورية في الذكاء الاصطناعي وضبط الوصول إليها. بالنتيجة، ستظهر الحاجة إلى نظام تدقيقي يتقصى القدرات بالشكل الذي تعمل فيه على الأرض، إضافة إلى قدرته على الوصول إلى التكنولوجيات الأساسية، مما يعني ضرورة توفر مواهب معينة [في نظام التدقيق]. وبفضل تلك الإجراءات وحدها، يغدو بالمستطاع ضمان التقييم الفاعل للتطبيقات الجديدة في الذكاء الاصطناعي، يشمل الأخطار الواضحة وتلك الكامنة تحت السطح على أعماق متفاوتة. بكلمات أخرى، يتوجب على الحوكمة الموجهة أن تكون حوكمة مطلعة بشكل جيد.
ضرورة الحكمة التكنولوجية
إضافة إلى المبادئ الواردة آنفاً، يفترض وجود حد أدنى لثلاثة أنظمة في حوكمة الذكاء الاصطناعي، تكون متمايزة في صلاحيتها وأدواتها والمشاركين فيها. ويجب أن تتسم كلها بالجدة في التصميم، لكن كل منها قد يسعى إلى استلهام الاتفاقات الموجودة فعلياً المتعلقة بالتحديات العالمية، خصوصاً التغير المناخي وانتشار الأسلحة والاستقرار المالي.
يفترض أن يركز النظام الأول على البحث عن الحقائق، وسيتخذ شكل كيان علمي عالمي يتولى تقديم المشورة الموضوعية إلى الحكومات والهيئات الدولية حول مسائل أساسية من نوع ماهية الذكاء الاصطناعي وما أنواع التحديات السياسية التي يفرضها. إذا لم يتفق أحد على تعريف الذكاء الاصطناعي أو المدى المتوقع لأضراره، فسيستحيل على التوصل إلى صوغ سياسة ملائمة بشأنه. في ذلك السياق، يمكن الاسترشاد بقضية التغير المناخي. فأثناء السعي إلى إيجاد أساس في المعرفة المشتركة خلال مفاوضات المناخ، أسست الولايات المتحدة “الهيئة المشتركة بين الحكومات عن تغير المناخ” وأعطتها تفويضاً بسيطاً تمثل في إمداد صناع السياسة بـ”تقييمات منتظمة عن الأسس العلمية في تغير المناخ وتأثيراته وأخطاره المستقبلية، إضافة إلى تقديم خيارات بشأن التأقلم وتخفيف التأثيرات”.
ويحتاج الذكاء الاصطناعي كياناً مماثلاً يعمل على التقييم المنتظم لوضعية الذكاء الاصطناعي، ويقدر تقديراً غير منحاز عن مخاطره وتأثيراته الكامنة، إضافة إلى صنع سيناريوهات مستقبلية واقتراح حلول علمية تهدف إلى حماية المصلحة العامة المشتركة العالمية. وعلى غرار هيئة المناخ، يتوجب أن يمتلك ذلك الكيان مدى عالمياً واستقلالاً علمياً (وجيو- سياسياً). وتستطيع تقاريره ضخ معلومات إلى مفاوضات متعددة الأطراف ويخوضها الأطراف المتعددة من أصحاب المصلحة فيه، على غرار ما تنهض به تقارير هيئة المناخ من إمداد بالمعلومات إلى مفاوضات الأمم المتحدة عن المناخ.
كذلك يحتاج العالم إلى طريقة في إدارة التوترات بين القوى الرئيسة في الذكاء الاصطناعي، ومنع التكاثر الخطر للأنظمة المتقدمة في الذكاء الاصطناعي. وتمثل علاقة الصين مع الولايات المتحدة، في ذلك الصدد، العلاقة الأهم على الإطلاق. يصعب تحقيق التعاون بين الطرفين حتى في أفضل الأوضاع. في المقابل، يؤدي استمرار مسار متصاعد التوتر من المنافسة الجيو- سياسية، إلى انفلات سباق في مضمار الذكاء الاصطناعي قد يطيح بكل الأمال المعقودة على التوصل إلى إجماع دولي بشأن حوكمة الذكاء الاصطناعي. ثمة مساحة ربما تجدها الصين والولايات المتحدة كلتاهما مفيدة لهما، تتمثل في إبطاء تكاثر الأنظمة التكنولوجية القوية التي قد تهدد السلطة الوطنية في الدولتين. في أقصى الحالات، قد تبرز حوافز قوية على التنسيق بين الطرفين في المأمونية والاحتواء، تأتي من الخطورة المترتبة على ظهور أنظمة ذكاء عام اصطناعي تغدو خارجة من السيطرة وقادرة على إنتاج نفسها بنفسها، في حال ابتكارها خلال السنوات المقبلة.
على امتداد تلك الجبهات كلها، يجب أن تسعى واشنطن وبكين إلى إيجاد مساحات من المشاركة والتعادل في الضوابط المقترحة، إضافة إلى إيكال إدارتها إلى طرف ثالث. في ذلك الصدد، فإن مقاربات المراقبة والتثبت المعتمدة غالباً في أنظمة ضبط التسلح، قد تصلح للتطبيق في مجال المدخلات الأشد أهمية التي تقدم إلى الذكاء الاصطناعي، خصوصاً تلك المتعلقة بأجهزة الحوسبة التي تشمل أشباه الموصلات المتقدمة ومراكز البيانات. في ذلك الصدد، ساعد ضبط النقاط المحورية الحساسة في احتواء سباق التسلح الخطر خلال حقبة “الحرب الباردة”، وقد تساعد الآن في احتواء سباق في الذكاء الاصطناعي يتضمن إمكانات أشد خطورة.
ولأن معظم الذكاء الاصطناعي بات متوزعاً بصورة لا مركزية، فإنه يغدو مشكلة الناس العاديين في أرجاء العالم بأكثر من إرادتي قوتين كبرتين. إن طابع الانكشاف بالتقادم الذي يحيط بتطور الذكاء الاصطناعي ومزاياه الأساس، على غرار تكاثر أنظمة المصادر المفتوحة، يزيد من إمكان استخدامه سلاحاً من مجرمي الفضاء السيبراني والأطراف الفاعلة التي ترعاها الدول والذئاب المنفردة.
يأتي الانكشاف بالتقادم من كون أنظمة الذكاء الاصطناعي تتطور باستمرار. وتغدو تصبح الجديدة منها قديمة تقنياً بسرعة، فتلجأ الشركات إلى جعلها في المتناول، وترفع التشدد عن أسرارها التقنية كي تتمكن أعداد أوسع من شرائها واستعمالها. ويؤول ذلك إلى تفلتها من سيطرة الشركات، مما يمكن أطرافاً كثيرة، من بينها فرق المصادر المفتوحة، من نسخها وتطويرها بطرقها الخاصة.
ويفسر ذلك سبب حاجة العالم إلى نظام الحوكمة الثالث الذي يستطيع التفاعل مع الاضطرابات الخطرة حين حصولها. ويستطيع صناع السياسة الالتفات إلى نماذج في الحوكمة بالاستفادة من المقاربة التي اتبعتها السلطات المالية في الحفاظ على استقرار أسواق المال العالمية. إذ تتألف “هيئة الاستقرار المالي” من محافظي البنوك المركزية ووزراء المال وسلطات التشريع والإشراف من أرجاء العالم. وتعمل الهيئة على منع حدوث عدم استقرار مالي عالمي عبر تقييم منهاجي لنقاط الانكشاف الهشة، وتنسيق الأفعال المشتركة اللازمة في الاستجابة إليها، بما يشمل السلطات الوطنية والعالمية. وقد يغدو في مكنة كيان تكنوقراطي مماثل يخصص لأخطار الذكاء الاصطناعي، ولنسمه “هيئة الاستقرار الجيو- تكنولوجي” Geotechnology Stability Board، من العمل في الحفاظ على الاستقرار الجيو- سياسي وسط التغييرات السريعة التي قد يدفع الذكاء الاصطناعي بها. وإذ يلقى الدعم من سلطات وطنية تشريعية وهيئات دولية مهمتها إرساء المعايير، سيغدو في متناول “هيئة الاستقرار الجيو- تكنولوجي” تجميع الخبرات والموارد بهدف إجهاض أزمات متأتية من الذكاء الاصطناعي أو صنع استجابة ملائمة لها، مما يقلص خطر انتشار تلك الأزمات. في المقابل، يتوجب أن تنخرط تلك الهيئة بصورة مباشرة مع القطاع الخاص، مع إدراكها أن الأطراف التكنولوجية الفاعلة والمتعددة الجنسيات، تؤدي دوراً حاسماً في الحفاظ على الاستقرار الجيو- سياسي، بمثل ما تنهض بفعله البنوك المهمة للحفاظ على الاستقرار المالي.
من شأن تلك الهيئة المفترضة، إذا امتلكت سلطة مدعومة من الحكومات، أن تضحي في موضع تستطيع فيه منع الأطراف التكنولوجية الفاعلة من الانخراط في الحسم بشأن التشريعات أو التذرع بالمعطيات الداخلية للشركات. لا يشكل الإقرار بأن بعض شركات التكنولوجيا تحوز أهمية منهاجية، ذريعة لمحاصرة الشركات الناشئة أو المبتكرين الصاعدين. وعلى العكس من ذلك، فإن تكوين خط مباشر واحد يربط الحوكمة العالمية مع تلك العمالقة التكنولوجية من شأنه تعزيز فاعلية تنفيذ التشريعات وإدارة الأزمات، وهما أمران يعملان لمصلحة النظام ككل.
واستطراداً، قد يعمل نظام مصمم من أجل تحقيق الاستقرار الجيو- تكنولوجي، على ملء الفراغ الخطر في المشهدية التشريعية الراهنة، بمعنى أن يتولى مسؤولية الحوكمة حيال الذكاء الاصطناعي المفتوح المصدر. ثمة مستوى معين من الرقابة على فضاء الإنترنت سيكون ضرورياً إيجاده. إذا عمد شخص ما إلى تحميل نموذج [للذكاء الاصطناعي] يكون فائق الخطورة، فمن الضروري أن يكون ذلك النظام حاز السلطة والقدرة على إزالته أو توجيه السلطات المحلية إلى كيفية فعل ذلك. يشكل ذلك مساحة أخرى للتعاون المتبادل المحتمل. يتوجب على الولايات المتحدة والصين كلتيهما أن تسعيا إلى العمل معاً في تنفيذ ضوابط الأمن حيال البرمجيات المفتوحة المصدر. ومن المستطاع أن يحدث ذلك مثلاً عبر تقييد المدى الذي يجب أن تصل إليه في إرشاد المستخدمين عن كيفية صنع أسلحة كيماوية أو بيولوجية، أو صنع عنصر مرضي من شأنه أن يطلق جائحة. إضافة إلى ذلك، قد ينفسح المجال لتعاون بين بكين وواشنطن في الجهود الدولية الرامية إلى الحد من تكاثر أنظمة الذكاء الاصطناعي، بما في ذلك أن يتحقق ذلك عبر استعمال أدوات تدخلية في الفضاء السيبراني للإنترنت.
استكمالاً، يفترض أن يعمل كل من تلك الأنظمة [الثلاثة في الحوكمة التكنولوجية العالمية] على المستوى الدولي، مع مساندة من كل الشركات الكبرى للذكاء الاصطناعي. وستحتاح تلك الأنظمة إلى العمل بشكل متخصص كي تستطيع مواكبة الأنظمة الفعلية في الذكاء الاصطناعي، إضافة إلى وجوب تمتعها بما يكفي من الديناميكية كي تجدد معارفها عن الذكاء الاصطناعي خلال حدوث التطورات فيه. بالتعاون معاً، تستطيع تلك المؤسسات اتخاذ خطوة حاسمة نحو “الحكمة التكنولوجية” في إدارة عالم الذكاء الاصطناعي المتصاعد. في المقابل، يجب ألا تنفرد بذلك بأية وسيلة كانت. إذ يفترض في السنوات المقبلة أن تفرض على الذكاء الاصطناعي آليات تشريعية أخرى تشمل معايير الشفافية المسماة “اعرف زبونك”، ومتطلبات إعطاء التراخيص، وبروتوكولات اختبارات المأمونية، وتسجيل المنتج وعمليات الموافقة وغيرها. وستتمثل الفكرة المفتاحية بين تلك الأشياء كلها في تكوين مؤسسات مرنة ومتعددة الأبعاد في الحوكمة لا تقييدها التقاليد أو نقص الخيال. ففي النهاية، لن تقيد تلك الأشياء صناع التكنولوجيات.
روّج للأفضل وامنع الأسوأ
لن يسهل تنفيذ أي من تلك الحلول. وعلى رغم الضجيج كله والغرغرة بالكلام في أفواه قادة العالم بشأن الحاجة إلى تنظيم تشريعي للذكاء الاصطناعي، يستمر النقص في الإرادة السياسية اللازمة لتحقيق ذلك بالفعل. وحاضراً، لا تستسيغ احتواء الذكاء الاصطناعي سوى قلة من الهيئات الانتخابية القوية، وتشير الحوافز كلها إلى استمرار حال الشلل في الأفعال. في المقابل، إذا أحسن تصميمه، سيكون من شأن نظام حوكمة للذكاء الاصطناعي من النوع الذي وصفته المقالة، أن يتناسب مع الأطراف المهتمة كلها، مع تقديمه مبادئ وبنيات تروج للأفضل فيما تمنع الأسوأ. وقد يؤدي البديل من ذلك، أي انفلات الذكاء الاصطناعي، إلى فرض أخطار غير مقبولة على الاستقرار العالمي، وكذلك فإنه سيعطل الأعمال ويطلق مسارات تتعارض مع المصالح الوطنية للبلدان كلها.
إذ يستطيع نظام حوكمة قوي للذكاء الاصطناعي أن يخفف الأخطار الاجتماعية التي تحملها تلك التقنية، إضافة إلى خفض التوتر بين الصين والولايات المتحدة عبر تقليص الأفاق التي يغدو الذكاء الاصطناعي فيها حلبة صراع، وليس أداة، للمنافسة الجيو- سياسية. وكذلك قد يحقق ذلك النظام أمراً أشد عمقاً وتأثيراً وديمومة، إذ إنه قد يؤسس لنموذج عن كيفية التعامل مع تكنولوجيات صاعدة أخرى تثير اضطراباً كبيراً. ولربما يتفرد الذكاء الاصطناعي حينما يعمل كعنصر مساعد في التغيير، لكنه ليس آخر التكنولوجيات المثيرة للاضطراب التي ستواجهها الإنسانية. إذ تمتلك تقنيات أخرى إمكانات كامنة في تغيير العالم بصورة جذرية، وتشمل قائمتها الحوسبة الكمومية Quantum Computing والتقنيات البيولوجية والنانوتكنولوجيا والروبوتات. وسيكون للنجاح في حوكمة الذكاء الاصطناعي أن يساعد العالم في السيطرة على تلك التقنيات أيضاً.
كخلاصة، سيلقي القرن الـ21 بحفنة من التحديات المذهلة أو الفرص الواعدة، توازي تلك التي يطرحها الذكاء الاصطناعي. خلال القرن الماضي، شرع صناع السياسة في إرساء هيكلية للحوكمة عقدوا الأمل على أن تأتي على قدر المهمات التي فرضها العصر عليهم. والآن، بات متوجباً عليهم إيجاد هيكلية جديدة للحوكمة كي تعمل على تطويع واحتواء القوى الأشد هولاً، التي تحمل أيضاً إمكان الحسم، في هذه الحقبة. إن [السيناريو الافتراضي عن] عام 2035 يقترب بخطى حثيثة. ليس من وقت كي نبدده هباء.