البيت الأبيض.. وتنظيم الذكاء الاصطناعي

13

د. ندى أحمد جابر

وأخيراً، وبعد مناشدات عدة من الخبراء والإعلاميين، أعلن البيت الأبيض في 22 الجاري، عن تحركات هامة من سبع شركات رائدة في مجال الذكاء الاصطناعي، مثل: أمازون، أنثروبيك، جوجل، إنفليكشن، وميتا (الشركة الأم لفيسبوك)، مايكروسوفت، وشركة OPemAI، حيث تعهدت خطياً، باتخاذ تدابير وقائية لتنظيم تقنية الذكاء الاصطناعي في الولايات المتحدة، علماً بأن الفوضى وسرية الاختبارات أدت إلى استقالة بعض الخبراء، وإلى دعوتهم إلى وقف التجارب لفترة محددة، حتى يتم تنظيم هذه التقنية التي بدأت تتخذ طريقاً مرعباً، يهدف إلى التفوق الآلي، ولو على حساب البشرية. والسؤال اليوم لماذا تحرّك البيت الأبيض الآن؟

الجواب بكل بساطة، هو الانتخابات الأمريكية العام المقبل، والأهم أن الإعلان تجاهل مخاطر مهمة كانت أشارت إليها الكاتبة (نيتا فرهاني)، في كتابها (المعركة من أجل العقل)، وهي مخاطر انتهاك حق التفكير بأجهزة تخترق العقل البشري وتؤثر فيه. كما تجاهل استقالة (جيفري هلتون) من «جوجل» بسبب التقنية التي تهدد البشرية، وتجاهل ما أعلنته (الغارديان) عن وقف مهندس عن العمل في «جوجل» لمجرد أنه أعلن أن الروبوت «لامادا» كوّن وعياً خاصاً.. كل ذلك وأكثر، مما شغل صحف العالم لم يذكره البيت الأبيض.. ذكر تطبيقات التضليل التي قد تَستخدم صور وأصوات المرشحين بفوضى فقط.. طبعاً لا شك في أن هذه التطبيقات مؤذية، ولكن ماذا عن الأهم؟ ماذا عن التطبيقات التي تنتهك حقوق الإنسان؟ والتطبيقات التي تستخدمها «فيسبوك» لقراءة تعابير الوجه والتي استعانت بها الحكومة الأمريكية في استطلاعات الرأي؟

إن موافقة شركات عملاقة على أخذ تدبير لإدارة (المخاطر) التي تشكلها هذه التكنولوجيا يُعتبر هاماً، خاصة بعد صمت طويل من الجهات الحكومية عالمياً.

حيث تعهدت الشركات باختبار أمان الذكاء الاصطناعي وإعلان النتائج علناً، وهذا يعني الحد، بنسبة كبيرة، من اندفاع الشركات المتنافسة إلى الإعلان عن أي تطبيق قبل إجراء التجارب الكافية. وسيضعها أمام مسؤولية قد تهز سمعتها في حال اكتشاف ثغرات في التطبيق، ومما قاله الرئيس جو بايدن، يوم الجمعة، 20 الجاري: (يجب أن نكون واضحين ويقظين بشأن التهديدات المرتبطة بالتقنيات الناشئة التي يمكن أن تشكل خطراً على الديمقراطية والقيم). في معرض الحديث عن مخاوف انتشار المعلومات المُضللة، لا سيما في الفترة التي تسبق الانتخابات الرئاسية الأمريكية 2024.

وفي مخاطر التضليل، بدأ السيناتور، ريتشارد بلومنتال، جلسة في مجلس الشيوخ بالاستماع إلى تسجيل مزيف لصوته، التسجيل الذي تضمن ملاحظات قانونية كتبها (ChatGPT)، وتسجيلات صوتية لصوت السيناتور الأمريكي أُنتِجت باستخدام تسجيلات لخطاباته الفعلية، ما يؤكد بأنه لا يمكن السماح للذكاء الاصطناعي بالظهور في بيئة غير منظمة. وهذا ما اعُتبر أمراً كارثياً حقاً. وفي تصريح لرئيس شركة (Open AI) سام التمان، قال: إن إمكانية استخدام الذكاء الاصطناعي للتلاعب بأصوات المرشحين ونشر المعلومات المُضللة هي من بين الأمور التي تثير قلقه بشدة.

مما سبق نجد أن تحرك البيت الأبيض جاء بسبب مخاوف التضليل التي قد تؤثر في الانتخابات.. وتركزت التعهدات على الأمن ومضمون المحتوى، وما إلى ذلك، ولم تذكر الكثير من المخاطر الأخرى التي تشكل هاجساً حقيقياً لدى الكثير من العلماء والخبراء مثل التنافس الخفي داخل أودية السيليكون، وتطوير روبوتات تفوق البشر ذكاء، والمخاوف من فقدان السيطرة عليها.. وفقدان الوظائف، وتطوير أسلحة الذكاء الاصطناعي، وسهولة نشرها والمخاطر المحدقة بها.. كل تلك العناوين الهامة بقيت بعيدة عن إعلان البيت الأبيض الذي تجاهل كل المخاطر، وركّز على ما قد يؤثر في الانتخابات القادمة. ولكن السؤال يبقى: هل سيُنظم الذكاء الاصطناعي تطبيقات التضليل التي تشغل بال البيت الأبيض وتَستمر الفوضى في تنافسها السري في التطبيقات الأكثر خطورة والتي لم يأت الإعلان على ذكرها؟

إعلان البيت الأبيض محاولة لحماية المرشحين في الانتخابات.. أما حماية البشرية ودراسة مخاوف الخبراء والدعوة إلى قانون دولي يُنظم التطبيقات المؤذية فالتجاهل هنا يثير أكثر من سؤال.. هل هو ترك الباب مفتوحاً لسباق سيطرة التكنولوجيا والذكاء الاصطناعي الذي سيحدد موقع السلطة مستقبلاً؟

أم هو انعدام الثقة بالالتزام بين الدول في أي اتفاق دولي؟

إعلان البيت الأبيض الذي فرح به البعض جاء متأخراً، وغير كاف.

هناك مخاطر أكبر.. لم تذكر.

 

اترك رد

Your email address will not be published.