هل يتحول الذكاء الاصطناعي إلى أداة للاستبداد والبطش بالبشر؟

يرسم التطور السريع في تقنياته صورة قاتمة لمستقبل مخيف يهدد العالم

25

AI بالعربي – متابعات

في صيف عام 2018، سلط مسح أجري على نحو 979 من رواد التكنولوجيا والمبتكرين والمطورين وقادة الأعمال والسياسة والباحثين والناشطين الضوء على المخاوف العميقة من التهديدات المتوقعة جراء التطور في تطبيقات الذكاء الاصطناعي. ورأت النسبة الأكبر من تلك العينة أن الأفراد قد يعانون فقدان السيطرة على حياتهم، مما يدفعهم في النهاية إلى التنازل بشكل تلقائي عن اتخاذ القرارات، في حين تنبأ البعض بمزيد من تآكل الهياكل الاجتماعية والسياسية التقليدية، وإمكانية حدوث خسائر كبيرة في الأرواح بسبب النمو المتسارع للتطبيقات العسكرية المستقلة واستخدام المعلومات والأكاذيب والدعاية المسلحة لزعزعة استقرار البشرية بشكل خطر. تلك نظرة “تشاؤمية” لمستقبل قائم على التطبيقات المستمدة من الذكاء الاصطناعي، لكنها تتماشى وتتوافق مع ما أعلنه سام ألتمان مؤسس شركة “أوبن أي آي” الناشئة التي أطلقت برنامج “تشات جي بي تي”، من أن الذكاء الاصطناعي العام سيجعل أنظمة الذكاء الاصطناعي أكثر ذكاء من البشر، الأمر الذي يفتح باب النقاش حول ملامح عصر الهيمنة الذكية، ومدى قدرة الآلة على التطور لمرحلة تدفعها إلى “الاستبداد بالبشر”.

الوعي الذاتي للآلات

ويؤكد مطور الروبوتات الحائز على جائزة جنيف الدولية للاختراعات القائمة على الذكاء الاصطناعي المهندس محمود الكومي، في حديثه لـ”اندبندنت عربية”، أن “وصول الذكاء الاصطناعي إلى مرحلة الوعي الذاتي التي تمكنه من اتخاذ القرارات ليس بالأمر الصعب من الناحية الفنية، ومن أجل تجنب مخاطر الهيمنة الذكية لا بد من وضع ضوابط حاكمة للعمل في مجال الذكاء الاصطناعي أهمها الالتزام بالعدالة وعدم التحيز”. يقول الكومي الذي يعمل في كبرى الشركات متعددة الجنسيات المتخصصة بالذكاء الاصطناعي، إن “هذه الشركات تضع أمامنا حدوداً وحواجز لا يمكن تخطيها، معظمها متعلق بالتعلم العميق (Deep Learning)، يلتزم بها جميع الموظفين العاملين بتلك المؤسسات، إلى حين تحديد ضوابط مقننة ومعممة بين الدول. والتعلم العميق هو بمثابة وسيلة في الذكاء الاصطناعي يمكنها معالجة البيانات بطريقة مستوحاة من الدماغ البشري، بحيث تتعرف على الأنماط المعقدة في الصور والنصوص والأصوات والبيانات الأخرى لإنتاج رؤى وتنبؤات دقيقة”.كما يشير مطور الروبوتات إلى أن “دولاً أوروبية تتيح للآلات المعتمدة على الذكاء الاصطناعي التعامل المباشر مع المرضى، ولا تجد مشكلة في إلقاء المسؤولية عليها، في حين تشترط الولايات المتحدة ومنطقة الشرق الأوسط وجود طبيب بجانب الروبوت، يتحمل المسؤولية حال وقوع أخطاء طبية”. وسبق للكومي تقديم أول روبوت في العالم لسحب المسحات الخاصة بفيروس كورونا عن طريق تكنولوجيا الذكاء الاصطناعي، المعروف باسم “كيرا”، الذي استمرت عمليات تطويره حتى مرحلة التشخيص المبكر لمرضى السرطان، كما اخترع الروبوت “إيلو” القادر على تحويل الهواء إلى ماء، والعمل في بيئات أكثر صعوبة من الأرض مثل الرحلات الفضائية، إضافة إلى الروبوت “إيكو” الذي يمكنه الاستفادة من موجات متراكبة منخفضة التردد لفصل عنصر الأوكسجين لإخماد الحرائق من دون استخدام الماء أو الكيماويات. وعلى رغم وجود “وجه قبيح” للذكاء الاصطناعي، فإن الكومي يجد ضرورة الاهتمام بذلك المجال، وهو ما دفعه إلى إنشاء مشروع “روبوت سكول”، الذي بدأت فكرته في عام 2012، بغرض تزويد النشء بخدمات تعليمية معتمدة على الذكاء الاصطناعي. ويقول في هذا الشأن، “كنت بحاجة إلى تلك الأدوات في فترة ما، وأرى في تأهيل الأطفال لوظائف المستقبل مسؤولية وطنية”.

جوهرة التاج

من جهة أخرى، يؤكد الرئيس السابق لهيئة تنمية صناعة تكنولوجيا المعلومات (ايتيدا) المهندس عمرو محفوظ، لـ”اندبندنت عربية”، ضرورة “وضع ميثاق أخلاقي لاستخدامات الذكاء الاصطناعي، يكون ملزماً أمام جميع الشركات العاملة في هذا المجال، فعلى رغم العوائد الاقتصادية والمنافع التي تتحقق من استخدام تلك التقنية، فإن أضراراً عدة قد تنتج جراء الاستخدام السيئ للذكاء الاصطناعي، مستدركاً “نحن أمام تقدم تكنولوجي عظيم سيفتح مجالات جديدة ويوفر فرص عمل مختلفة، لكنه سيتسبب أيضاً في انقراض عديد من الوظائف”. وأصدرت الـ”يونيسكو” في نوفمبر (تشرين الثاني) 2021 توصية مثلت أول إطار عالمي يتناول الاستخدام الأخلاقي للذكاء الاصطناعي، واستهدفت إنشاء أداة تشريعية لتنظيم الذكاء الاصطناعي ومراقبته بهدف ضمان الأمن الكامل للبيانات الشخصية والحساسة، في ظل التحديات التي تفرضها من إمكانية نشرها معلومات مضللة، وأخرى تحتوي على انتهاكات لحقوق الأفراد والمجموعات. ولا يستبعد الرئيس السابق لـ”ايتيدا” الوصول إلى عصر “تحكم الآلة”، حين ستكون قادرة على اتخاذ القرارات وتعليم نفسها بطريقة ذاتية بشكل أشبه بأفلام الخيال العلمي، لكنه يرى أيضاً أن “قدرات تقنيات الذكاء الاصطناعي لا يمكنها أن تفوق التحكم البشري، فما زال الإنسان قادراً على التدخل، وإيقاف استبداد الآلة”. واعتبر في الوقت نفسه أن “الذكاء الاصطناعي يمثل جوهرة التاج في التكنولوجيا”، وأن الدول التي ستحافظ على “عقولها”، من خلال الاستثمار في الذكاء الاصطناعي، “ستهيمن على العالم”. ومن المتوقع أن يضيف الذكاء الاصطناعي أكثر من 15.7 تريليون دولار إلى الاقتصاد العالمي بحلول عام 2030، بزيادة تمثل 14 في المئة من الناتج المحلي الإجمالي العالمي، وبواقع 6.6 تريليون دولار كعوائد ناتجة عن زيادة الإنتاج المعتمد على الذكاء الاصطناعي، مثل الروبوت أو المركبات ذاتية القيادة، بجانب 9.1 تريليون دولار كعوائد ناجمة عن أنماط الاستهلاك المعتمدة على تلك التقنيات. ويعتقد محفوظ بعدم وجود أهمية لإصدار ميثاق عربي للتعامل مع تطبيقات الذكاء الاصطناعي. ويعلق على ذلك قائلاً “نحن لم نصل إلى مستوى من التطوير والأبحاث تدفعنا إلى تأسيس مثل تلك المواثيق، فالأمر يخص بعض الدول التي استشعرت التطور المخيف للتكنولوجيا. يجب أن نتسق مع أنفسنا، ونبقى مدركين أننا ما زلنا نقف بعيداً من تلك النقطة”. ويشدد الرئيس السابق لـ”ايتيدا”، أن من ضمن مخاطر الذكاء الاصطناعي إمكانية استخدامه في هجمات سيبرانية، بحيث يحل محل “الهاكرز” (قراصنة الإنترنت) في عمليات اختراق واسعة النطاق مثل إيقاف مصانع أو تعطيل محطات إطلاق صواريخ أو تعطيل محطات قيادة وسيطرة على قوات في مسرح عمليات. وأشار كتاب المقال الثلاثة (هنري فاريل أستاذ الشؤون الدولية بجامعة جونز هوبكنز، وأبراهام نيومان أستاذ نظم الحكم بجامعة جورج تاون، وجيرمي والاس أستاذ نظم الحكم بجامعة كورنيل) إلى احتمالية الاعتماد على الذكاء الاصطناعي في مساعدة الحكام المستبدين بجعلهم أكثر خطورة، مستشهدين بآراء مراقبين ينتابهم القلق من التقدم في تكنولوجيا الذكاء الاصطناعي، بسبب تصوراتهم في شأن تلك التقنية من أنها لن تؤدي إلا إلى تقوية يد الطغاة وتمكينهم من السيطرة على مجتمعاتهم. ويعضد تلك الرؤية دعوة الملياردير الأميركي إيلون ماسك، ومجموعة من المديرين التنفيذيين والخبراء الذين يعملون في مجال الذكاء الاصطناعي، إلى توقف موقت مدته ستة أشهر في تطوير أنظمة أقوى من نظام “GPT-4″، التابع لشركة “OpenAI”، وذلك في خطاب مفتوح سلط الضوء على المخاطر المحتملة لهذه الأنظمة على المجتمع والإنسانية.

المسؤولية الأخلاقية

يرى استشاري تشريعات التحول الرقمي والرئيس السابق للجنة التشريعات والقوانين في وزارة الاتصالات وتكنولوجيا المعلومات المصرية محمد حجازي، ضرورة “تنظيم عديد من الأمور التشريعية خلال التعامل مع تقنيات الذكاء الاصطناعي، فتغذية تلك الأنظمة بمعلومات مضللة ستسفر بالتبعية عن نتائج خطأ، وفي حال إدخال بيانات غير صحيحة لقطاعات مهمة مثل الصحة والزراعة فإنها بكل تأكيد ستتسبب في مخاطر وكوارث ,واقترحت دول عدة، أخيراً، أطراً قانونية، أبرزها قانون الذكاء الاصطناعي الذي صدر عن المفوضية الأوروبية في عام 2021 كإطار تنظيمي لتكنولوجيا الذكاء الاصطناعي داخل الاتحاد الأوروبي. كما يضع حجازي مقترحات لضبط أمور تشريعية عدة من شأنها الحد من خطورة الذكاء الاصطناعي، منها تحديد المسؤولية عن إدخال البيانات لتلك الأنظمة، والوقوف عند المسؤول بحال وجدت أخطاء ناجمة من استخدام الخوارزميات، وتحويل القواعد الأخلاقية إلى قوانين ملزمة، وفرض عقوبات رادعة على كل من يخالفها، إضافة إلى حماية حقوق الملكية الفكرية حال تغذية التطبيقات بمحتوى من دون إذن أصحابه. ويقول حجازي لـ”اندبندنت عربية”، إن “دولاً عدة بدأت تدرس كيفية التغطية التشريعية للذكاء الاصطناعي، لكن لا وجود لاتفاقية دولية ملزمة حتى وقتنا الحالي، واكتفى الاتحاد الأوروبي بوضع لائحة لحماية البيانات الشخصية منذ عقود طويلة، ينظر إليها العالم كونها من القواعد الذهبية”، مشيراً إلى “ضرورة وجود توافق دولي لتفعيل بعض القوانين، والاتفاق على قواعد معينة للتعامل مع الذكاء الاصطناعي”. وفي إطار المحاولات التي الغرض منها هو وضع كوابح على التقنيات المرتبطة بالذكاء الاصطناعي، وجهت وزارة التجارة الأميركية دعوة إلى الجهات الفاعلة في هذا القطاع لتقديم مساهمات لإدارة الرئيس الأميركي جو بايدن من أجل إعداد تصور حول أنظمة خاصة بالذكاء الاصطناعي. وقالت إنه “مثلما لا يتم توزيع الطعام والسيارات في الأسواق دون ضمان مناسب للسلامة، كذلك يجب أن توفر أنظمة الذكاء الاصطناعي ضماناً للعامة والحكومة والشركات بأنها ملائمة”، كما حض بايدن الكونغرس على تمرير قوانين تضع قيوداً صارمة على شركات التكنولوجيا الضخمة. ويقول استشاري تكنولوجيا المعلومات والتحول الرقمي المهندس محمد الحارثي لـ”اندبندنت عربية”، إن “الذكاء الاصطناعي قادر على بناء محادثة دقيقة كأنه عنصر بشري، كما طور خصيصاً لوضع سيناريوهات من شأنها الوصول إلى أنظمة معينة يمكنها تقديم مقترحات وسيناريوهات لتنفيذ هجمات سيبرانية، وأفضل الطرق التي يمكن استخدامها”. وتتوافق رؤية الحارثي مع التحذير الذي أعلنت عنه وكالة الشرطة الأوروبية (يوروبول) في مارس (آذار) الماضي، من خطر أن يستغل مجرمون منصة “تشات جي بي تي” للذكاء الاصطناعي لممارسة عمليات احتيال أو ارتكاب جرائم سيبرانية، وأن قدرة روبوتات الدردشة على تقليد أنماط الكتابة جعلته فاعلاً بشكل كبير في إعداد رسائل بريد إلكتروني بغية “التصيد”، وقدرته على إنتاج نص بشكل سريع تجعله “مثالياً لأغراض الدعاية والتضليل”. ويذهب الحارثي بدفة الحديث إلى المخاوف المتعلقة بوصول الذكاء الاصطناعي للحكمة والمعرفة، وقدرة تطبيقاته على استمداد قدرة ذاتية تمكنه من الاتصال بتكنولوجيات IOT، وتنفيذ عمليات تشغيلية نتيجة الخروج عن السيطرة، مبدياً تخوفه أيضاً من اعتماد البشر في المستقبل القريب على الذكاء الاصطناعي بصفة كلية، ما يجعلها تقود الإنسان وتحركه وتغير في سلوكه، وتكون بديلة عن 80 في المئة من الوظائف التي يؤديها.

 

 

اترك رد

Your email address will not be published.