أخلاقيات الذكاء الاصطناعي

37

أخلاقيات الذكاء الاصطناعي

شارلوت تشيدر

في نوفمبر/تشرين الثاني 2022، تم إطلاق روبوت الدردشة الذكية «تشات جي بي تي» وسط ضجة قليلة. اليوم، أصبح موضوعاً ساخناً في وسائل الإعلام وأروقة السياسة، مع توجسات من نتائج مضللة أو غير أخلاقية.

في قمة مجموعة السبع في مايو/أيار الماضي، أولى قادة العالم اهتماماً خاصاً بالذكاء الاصطناعي، والتزموا بالعمل مع قادة التكنولوجيا؛ لضمان الوصول الآمن والجدير بالثقة. وفي يونيو/حزيران الفائت، وبدافع من مخاوف «تشات جي بي تي» العامة، دعا زعيم الأغلبية في مجلس الشيوخ تشاك شومر الولايات المتحدة إلى تنظيم الذكاء الاصطناعي، لتعلن لجنة التجارة الفيدرالية عن تحقيقها في خفايا التكنولوجيا التي تصدرت أخبارها عناوين الصحف المحلية والعالمية.
من الواضح أن تقنية «تشات جي بي تي» قد استحوذت على اهتمام الجمهور، سواء من خلال توقيت إصدارها أو الخصائص المبهرة التي تتميز بها. وهي تعد بأتمتة الكثير من العمل الذي يؤجل الكثير منا القيام به، من كتابة التقارير والوثائق إلى إجراء البحوث.
كما جعلتنا نتساءل جدياً عن مستقبل العمل والمدرسة، وحتى عن حياتنا الشخصية ودور الذكاء الاصطناعي فيها. فكيف سنقيّم بكفاءة اليوم أداء الموظف أثناء قيامه بواجباته الوظيفية؟ وهل سيثق المحامون والقضاة في دقة وسرية مخرجات «تشات جي بي تي» عند استخدامها لصياغة ملخصات أو إجراء بحث ذي صلة بقضية ما؟ ومن هم الأساتذة الذين سيعتقدون أن الواجب المعمول جيداً من طالب ضعيف الأداء هو في الواقع جهد الطالب نفسه؟

وهل سيكون لصانعي المحتوى أي حقوق فيما يتعلق بعملهم؟ أم للشعراء الحق بالتغني بشعرهم؟ وماذا عن معتقدات الفرد السياسية وإمكانية تأثير الذكاء الاصطناعي عليها؟ والكثير والكثير من الأسئلة المبهمة التي تنتظر إجابات عنها.

وبينما دعا قادة التكنولوجيا المطورين إلى وقف تقدم الذكاء الاصطناعي، عزز الباحثون في القطاع المخاوف والشكوك. فما مدى ضرر الذكاء الاصطناعي حقاً؟
كمن المشكلة في أنه ليست جميع أنواع تقنيات الذكاء الاصطناعي متشابهة، بل بأن العديد منها مخفية عن الرقابة العامة. وقد أدى التركيز على «تشات جي بي تي»، وهو ذكاء اصطناعي توليدي، إلى نسيان العديد من أنظمة الذكاء الاصطناعي الأخرى التي يمكن أن تسبب ضرراً خطِراً للغاية. وغالباً ما يتبنى الذكاء الاصطناعي عالي الخطورة دور «الصندوق الأسود» الذي يتخذ قرارات حاسمة ومخفية، فهذه التقنيات التي تطير بالطائرات، وتوجه الروبوتات الجراحية وأجهزة السمع القوية، هي ذاتها المدمجة في السيارات، وأدوات توجيه الطائرات العسكرية بدون طيار والأسلحة الذكية، وتشخيص السرطان، وتبسيط التصنيع المعقد، وعلاج السكري بالطاقة وإبر الإنسولين، والتنقل في مكوكات الفضاء، وتحسين الإنتاج الزراعي، وتوفير الطاقة لشاحنات النقل لمسافات طويلة. إذن، بات الذكاء الاصطناعي حرفياً جزءاً من كل قطاع حياتي.

وفي الواقع، لا تتطلب أغلبية الحكومات حتى الآن كشفاً عاماً عن أي معلومات مفصلة عن الذكاء الاصطناعي. وحتى القانون الذي اقترحه الاتحاد الأوروبي لا يفرض الكشف المفصل عن الخصائص للعموم، على الرغم من أنه يطلب من المؤسسات الكشف عن أعمالها، والتوقف عن استخدام الذكاء الاصطناعي عالي الخطورة، وإجراء تقييمات ذات صلة.

في المقابل، أصدرت إدارة الفضاء الإلكتروني في الصين، وهي الوكالة المسؤولة عن إنفاذ قانون الأمن السيبراني للبلاد، لوائح تتخذ نهجاً مختلفاً تماماً، تطلب خلالها مراجعات أمنية، وخطط ترخيص إلزامية، والتزاماً بالقيم الأساسية لمتطلبات الذكاء الاصطناعي.

وبينما قد تشكل تقنية «تشات جي بي تي» والأنظمة التوليدية الأخرى خطراً على معظم البلدان، بما في ذلك الولايات المتحدة وسكانها، فإن تقنيات متنوعة جديدة من أنظمة الذكاء الاصطناعي تشكل خطراً أكبر بسبب عدم القدرة على اختبارها والإفصاح عنها. فعلى سبيل المثال، يُحدث الذكاء الاصطناعي الذي له تأثير على جسم الإنسان أو الممتلكات المادية أضراراً واضحة، ويمكن القول إنها أكثر خطورة من الذكاء الاصطناعي التوليدي نفسه. ونظراً لأن معظم أنظمة الذكاء الاصطناعي مصممة بتقنية مترابطة مشتركة، ومع استخدام القراصنة الإلكترونيين بشكل متزايد لمُوجهات الهجوم التي تدعم الذكاء الاصطناعي، يمكن للذكاء الاصطناعي المُختَرق أن يلحق الضرر بآلاف الأشخاص في وقت واحد.

كما يمكن أن تفشل أنظمة الذكاء الاصطناعي بسبب التصميم والاختبار الخاطئين من قبل الشركة المصنعة. فمثلاً، قد يؤدي الفشل في تضمين معلومات حول التضاريس التي سيحصد فيها الحصّاد الذكي القمح إلى تلف الممتلكات أو تلف الجهاز نفسه. وعندما لا يتم تدريب الأجهزة الطبية على الأشخاص الذين سيستخدمونها (بما في ذلك العمر والعرق والجنس والاختلافات الجسدية)، فمن الممكن أن تكون غير آمنة لبعض السكان أو جميع السكان لاستخدامها، مما قد يؤدي إلى حدوث خلل في الجسم من خلال عملية جراحية خطِرة أو تشخيص خاطئ للمريض.

بالتالي، كلما أسرعنا في إدراك أن «تشات جي بي تي» ليس سوى نظام بيئي واحد ضمن نظام الذكاء الاصطناعي الأوسع يتطلب المزيد من الإفصاح والتدقيق أكثر من أي وقت مضى، كان مجتمعنا العالمي أكثر أماناً وأخلاقية.

المصدر: الخليج 

اترك رد

Your email address will not be published.