التعاون أو الفوضى: مستقبلان للذكاء الاصطناعي والأمن القومي الأميركي

13

بيلفا شاندرا

سيتشكل مستقبل الأمن القومي للولايات المتحدة بدرجة كبيرة من خلال كيفية تحويل الآلات وتسريع نمو البشرية. لقد أدى التعلم الإلكتروني فعلاً إلى تطورات حديثة مثل: نموذج معالجة اللغة الطبيعية المسمى GPT-3 الذي يمكنه تقليد النص البشري، وعمليات التزييف التي طورتها “شبكات الخصومة العامة”، وتطبيق AlphaGo، وهو أول برنامج كمبيوتر يتفوق على تطبيقGo المحترف. ويشكل التعاون بين الإنسان والآلة طليعة مستقبل الابتكار العسكري والدفاعي. ومع ذلك، فإن الاستفادة الفعالة من هذه الظاهرة المحيرة للعقل، والتخفيف من مخاطر الاستخدام السيئ لها من قبل العدو، لا يمكن تصوره بدون شراكات بين القطاعين العام والخاص. وفي الوقت الحالي، يتسم الكثير من الجدل الدائر حول الشراكات بين القطاعين العام والخاص للذكاء الاصطناعي برفض موظفي التكنولوجيا تقديم المساعدة المباشرة فيما يرون أنه أعمال حرب. ومع ذلك، فإن المشاعر الفعلية من قبل المتخصصين في مجال التكنولوجيا تجاه التعاون مع وزارة الدفاع تبدو أكثر دقة. ووفقًا لمسحٍ أجراه مركز الأمن والتكنولوجيا الناشئة بجامعة جورجتاون، فإن أقلية صغيرة فقط 7% من المستجيبين أعربوا عن مشاعر سلبية جدًا بشأن العمل في مشروعات الذكاء الاصطناعي التابعة لوزارة الدفاع. ومع ذلك، فقد وجد الاستطلاع أن العديد من المتخصصين في الذكاء الاصطناعي يربطون مثل هذه المشاريع بـ”الطائرات بدون طيار الفتاكة”؛ نظرًا لأهداف التحديث والاستعداد الفني لوزارة الدفاع، إذ لا يمكن تجنب مشاركة الحكومة في التطوير التجاري للتقنيات الناشئة على نطاق أوسع. ولهذا السبب، فإن زيادة الوعي في القطاع الخاص بشأن التطبيقات الدفاعية للذكاء الاصطناعي يعدُّ أمرًا بالغ الأهمية. ويجب أن تشارك الحكومة الأميركية وشركات القطاع الخاص في مجال الذكاء الاصطناعي. وبدون هذا التعاون، فإن الولايات المتحدة معرضة لخطر التخلف عن خصومها في تطوير الذكاء الاصطناعي والفشل في إنشاء أطر أخلاقية له. التطبيقات العدائية للذكاء الاصطناعي العسكري يحتل الذكاء الاصطناعي موقع الصدارة في منافسة القوى العظمى بين الولايات المتحدة والصين، وقد أظهر الحزب الشيوعي الصيني التزامًا عميقًا بتطوير الذكاء الاصطناعي. وتسعى استراتيجية الاندماج العسكري المدني التابعة للحزب الشيوعي الصيني للاستفادة من القطاع الخاص لتطوير التقنيات الأساسية مثل: الذكاء الاصطناعي، والحوسبة الكمية، وأشباه الموصلات، والبيانات الضخمة، والجيل الخامس، وغيرها. وعلى الرغم من أنها لا تزال في مراحلها الأولى، فإنها تهدف إلى تعبئة القطاعات الاقتصادية المدنية على نطاق واسع لتلبية طموحات الدفاع للحزب الشيوعي الصيني من خلال تقديم حوافز للشركات الصينية. ويقدر إجمالي الاستثمار في مجال الاندماج العسكري المدني على مدى عدة سنوات بنحو 68.5 مليار دولار. وتعتبر الصين قادرة على تمويل الابتكار المدني بشكل مباشر للتطبيقات العسكرية بشكل مباشر أكثر من الولايات المتحدة، وذلك بسبب نظام الرأسمالية الفريد للدولة الاستبدادية بها. كما يزيد التوسع المتنامي للذكاء الاصطناعي في المنتجات التجارية من خطر استخدام الجهات الفاعلة غير الحكومية للذكاء الاصطناعي بشكل ضار. وبغض النظر عن خصوم الدولة، فقد انخرطت جهات فاعلة خطيرة من غير الدول مثل تنظيم “داعش” في تكنولوجيا الذكاء الاصطناعي البدائية، وخاصة الطائرات بدون طيار، لاستخدامها في عملياتها. وتستخدم معظم الطائرات بدون طيار التجارية تقنية رؤية الكمبيوتر، التي تكتشف وتصنف وتتبع الأشياء. ولسوء الحظ، فإن طبيعة الاستخدام المزدوج للطائرات بدون طيار والتكنولوجيا التي تدعم الذكاء الاصطناعي تجعل من الصعب السيطرة على تنظيمها وانتشارها. إن الطائرة بدون طيار التي اختارها تنظيم “داعش” هي “دي جي آي فانتوم” DJI Phantom، وهو نموذج يتمتع بقدرات استشعار وتجنب العقبات، المصنعة في الصين. وعلاوة على ذلك، قامت المجموعة بتجديد الطائرات التجارية بدون طيار لتلائم أغراضها واستخدمتها ليس للاستطلاع وتسجيل مقاطع الفيديو الجوية فقط، بل لرسم الخرائط الجغرافية وتسليم المتفجرات أيضًا. وباستخدام الطائرات المسيرة المتاحة تجاريًا، تمكن تنظيم “داعش” من إجراء عمليات استطلاعية واستخباراتية بسرعة، مع تقليل التهديدات لمقاتليها. ونظرًا لأن الطائرات التجارية بدون طيار أصبحت أكثر تقدمًا مع قدرات التعلم الآلي المحسنة، ستستفيد المجموعات غير الحكومية من تطورها المتزايد. ووفقًا لتقرير عام 2018، هناك تهديد مؤكد يتمثل في قيام الإرهابيين بإعادة استخدام المركبات المستقلة وطائرات بدون طيار تجارية متطورة لتسليم المتفجرات والهجمات المستهدفة. ويعتبر اهتمام الجهات الفاعلة غير الحكومية بالتكنولوجيات الناشئة والذكاء الاصطناعي اتجاهًا خطيرًا له آثار مستقبلية على التصعيد. فلا توجد دولة أو منظمة خاصة تحتكر تقنيات الذكاء الاصطناعي؛ لذلك يصعب كبح تطوير الذكاء الاصطناعي من قبل الجهات الفاعلة غير الحكومية أو خصوم الدولة. وفي الواقع، ينشر معظم علماء وباحثي الذكاء الاصطناعي بشكل علني الخوارزميات الخاصة بهم، ومكتبات الأكواد، ومجموعات بيانات التدريب وهي القطع المتكاملة التي يمكن للأفراد تجميعها واستخدامها، بما في ذلك للأغراض الشريرة. ومن الممكن أن تتخلف الولايات المتحدة وحلفاؤها عن منحنى الذكاء الاصطناعي إذا لم يتم إعطاء الأولوية للتعاون بين القطاعين العام والخاص، إذ يواصل خصومها تسريع اكتساب التكنولوجيا واستخدامها. التعاون من أجل الذكاء الاصطناعي الأخلاقي  يعدُّ التعاون بين القطاعين العام والخاص أمرًا أساسيًا في إنشاء أطر عمل أخلاقية للذكاء الاصطناعي للدفاع والأمن القومي للولايات المتحدة. لذا، يجب أن يتوسع لمنع الاستخدام الضار للذكاء الاصطناعي في المستقبل. وقد قامت بالفعل العديد من شركات القطاع الخاص والاتحادات الأكاديمية بتطوير مبادئها التوجيهية الخاصة. فعلى سبيل المثال، نشر معهد مهندسي الكهرباء والإلكترونيات أطروحة عالمية حول الذكاء الاصطناعي، تؤكد على أنظمة الذكاء الاصطناعي المصممة أخلاقيًا، وتعزز القيم الإنسانية العالمية، وتوحد الشراكة حول الذكاء الاصطناعي لإفادة الناس والمجتمع المجتمع المدني ومجموعات البحث لخلق أفضل الممارسات وزيادة الوعي العام والعمل كمنتدى مناقشة للذكاء الاصطناعي. وبالإضافة إلى ذلك، ففي داخل وزارة الدفاع نفسها، تعدُّ وكالة مشاريع البحوث المتطورة الدفاعية مثالاً ممتازًا على كيفية إنتاج خبرة القطاع الخاص المقترنة بالدعم الحكومي ابتكارًا أخلاقيًا. وعلى سبيل المثال، يهدف برنامج الاستطلاع الحضري التابع للوكالة من خلال برنامج الحكم الذاتي الخاضع للإشراف إلى منع وقوع مشكلات الضحايا المدنيين في ساحة المعركة، والتي تندرج بشكل جيد ضمن المعايير الأخلاقية لاستخدام الذكاء الاصطناعي. وتتجاوز قيمة المبادرات بين القطاعين العام والخاص وعبر القطاعات مجرد تطبيقات الدفاع. وفي ضوء الحصار المحلي الأخير ضد مبنى الكابيتول الأميركي من قبل الجهات المعادية العنيفة، أجريت المحادثات حول الإشراف على المحتوى عبر الإنترنت والتزام شركات التكنولوجيا الكبرى بحماية الديمقراطية. فالذكاء الاصطناعي يأتي في طليعة هذا التحدي. وعلى وجه التحديد، يعدُّ تطوير المساءلة الخوارزمية للتخفيف من معضلة الصندوق الأسود للذكاء الاصطناعي أمرًا مفيدًا في الحد من تحيز الخوارزمية، وتنفيذ سياسات الإشراف على المحتوى المستدام والقابل للتكرار. ويعدُّ الإشراف الفعال على المحتوى أمرًا حيويًا لمصالح الأمن القومي للحكومة الأميركية، إذ يبدو الآن أمرًا أكثر أهمية بشكل متزايد لسمعة العلامات التجارية لشركات التكنولوجيا مثل: “تويتر” Twitter و”فيس بوك” Facebook و”آبل” Apple، ما يعني أن هناك حوافز حقيقية للعمل معًا. التوصيات هناك مجموعة كبيرة من سبل التعاون الواعد بين الكيانات العامة والخاصة؛ إذ يمكن لصانعي السياسة في الولايات المتحدة العمل مع شركات التكنولوجيا لتعزيز الأمن التشغيلي، وتحفيز أبحاث الذكاء الاصطناعي المفيدة اجتماعيًا، وفرض أنظمة الملكية الفكرية، وكلها خطوات رئيسية نحو الهدف الشامل المتمثل في تقليل احتمالية الاستخدام الضار للذكاء الاصطناعي من قبل الجهات الفاعلة غير الحكومية والحكومية. وسيضمن توسيع الشراكات بين القطاعين العام والخاص في مجال الذكاء الاصطناعي عدم تتبع الولايات المتحدة للصين في استراتيجية الذكاء الاصطناعي. وفي حين أن الولايات المتحدة قد لا يكون لديها ما يعادل استراتيجية الاندماج العسكري المدني للحزب الشيوعي الصيني، من خلال عقود المنفعة المتبادلة وحوافز القطاع الخاص، يمكنها سد الفجوة في سباق الذكاء الاصطناعي المستمر مع الصين. أخيرًا، يمكن للحكومة الأميركية تعزيز الأطر الأخلاقية للذكاء الاصطناعي من خلال العمل جنبًا إلى جنب مع الكيانات الخاصة والمؤسسات البحثية للاستفادة من إرشادات القطاع الخاص الموجودة مسبقًا لاستخدام الذكاء الاصطناعي، والعمل على تحسين سياسات تعديل المحتوى وخوارزميات التعلم الآلي باستخدام تكنولوجيات الـ”Big Tech” للمساعدة في منع التهديدات غير المتصلة بالإنترنت، واستخدام الخبرة الفنية للقطاع الخاص للتصميمات الأخلاقية للذكاء الاصطناعي في ساحة المعركة. يعدُّ الذكاء الاصطناعي منارة مثيرة لتحديث الحكومة، ومجالاً واعدًا لنمو الشركات الخاصة؛ إذ لا يمكن لأي منهما أن تنغلق على نفسها، لأن الافتقار إلى التعاون سيعيق مصالح الأمن القومي للولايات المتحدة وفرص الابتكار في القطاع الخاص. وتتطلب بيئة التهديدات المتمثلة في المصالح المناوئة للولايات المتحدة والحاجة إلى أطر أخلاقية للذكاء الاصطناعي، التعاون، الذي بدونه يكون محكوم علينا بالفوضى.

اترك رد

Your email address will not be published.