أهم تسع قضايا أخلاقية في الذكاء الاصطناعي

19

AI بالعربي – متابعات

تتغير حياتنا كل يوم للأفضل من خلال أنظمة الآلات الذكية، فكلما أصبحت هذه الأنظمة أكثر قدرة، أصبح عالمنا أكثر كفاءة. ويعتقد بعض عمالقة التكنولوجيا اليوم أنه يجب استخدام الذكاء الاصطناعي (AI) على نطاق أوسع. ومع ذلك، فهناك العديد من القضايا الأخلاقية التي ينبغي مراعاتها قبل أن تصبح حقيقة واقعة، وهو ما نورده فيما يلي:

أولاً: كيف نتعامل مع البطالة؟

إن غالبية الناس يتخلون عن معظم أوقاتهم لمجرد الحصول على دخلٍ كافٍ لإبقاء أنفسهم وعائلاتهم على قيد الحياة. وبالتالي، فنظرًا لمقدار الوقت الذي يوفره، فإن نجاح الذكاء الاصطناعي سيمنح للناس الفرصة لقضاء المزيد من الوقت في رعاية أسرهم والمشاركة في مجتمعاتهم، وتجربة طرق جديدة للمساهمة في المجتمع البشري.

ولنأخذ، على سبيل المثال، صناعة النقل بالشاحنات، حيث يعمل ملايين الأشخاص في الولايات المتحدة وحدها. فإذا أوفى “إيلون ماسك” Elon Musk رئيس ومؤسس شركة تيسلا Tesla بوعده بتقديم سيارات ذاتية القيادة، (وبالتالي، شاحنات توصيل)، وإذا أصبحت هذه السيارات متاحة على نطاق واسع خلال العقد المقبل، فما الذي سيحدث لهؤلاء الملايين من الناس؟ لكن الشاحنات ذاتية القيادة قد أصبحت خيارًا أخلاقيًا عندما نفكر في قدرتها على خفض معدلات الحوادث لدينا.

ثانيًا: كيف يمكننا التوزيع العادل للثروة التي تنتجها الآلات؟

يمكن للذكاء الاصطناعي، إذا تم استخدامه على نطاق واسع، أن يقلل من اعتماد الشركات على القوى العاملة البشرية؛ مما يعني أن الإيرادات سوف تذهب في المقام الأول إلى الأشخاص الذين يمتلكون شركات تعتمد على الذكاء الاصطناعي.

إننا بالفعل، نرى مؤسسي الشركات الناشئة يستحوذون على غالبية الفائض الاقتصادي الذي يولدونه، إذن كيف نوزع الثروة التي تنتجها الآلات بشكل منصف؟

ثالثًا: هل يمكن للآلات أن تؤثر في سلوكنا وتفاعلاتنا؟

لقد أصبحت روبوتات الذكاء الاصطناعي أكثر فاعلية في تقليد العلاقات والمحادثات البشرية. فقد حدث اختراق كبير على هذا الصعيد في عام 2015 عندما أصبح روبوت يُدعى “يوجين جوستمان” Eugene Goostman أول كمبيوتر يجتاز اختبار “العودة” Turing. ويتطلب هذا التحدي من المراجعين من البشر استخدام إدخال النص للدردشة مع كيان غير معروف، ثم تخمين ما إذا كان الكيان بشريًا أم آلة. ويعتقد أكثر من نصف المقيّمين الذين يتحدثون مع “يوجين جوستمان” أنه كان إنسانًا.

ففي حين أن ذلك يمكن أن يكون مفيدًا جدًا في دفع المجتمع نحو سلوك أكثر فائدة، إلا أنه قد يكون ضارًا أيضًا إذا وقع في الأيدي الخطأ.

رابعًا: كيف نحمي أنفسنا من الأخطاء الضارة المحتملة؟

ينتج الذكاء من التعلم، سواء كنت إنسانًا أو آلة. فعادة ما يكون للأنظمة مرحلة تدريب، حيث “يتم تعليمهم” لاكتشاف الأنماط الصحيحة والتصرف وفقًا لمدخلاتهم. فبعد مرحلة التدريب، ينتقل النظام إلى مرحلة الاختبار، إذ يتم طرح المزيد من السيناريوهات عليه لمعرفة كيفية تنفيذه.

ونظرًا لأنه من المستبعد جدًا أن تغطي مرحلة التدريب جميع السيناريوهات المحتملة التي قد يواجهها النظام في العالم الحقيقي، فإنه بالإمكان خداع النظام بطرق لا يمكن للبشر القيام بها. لذلك، فإذا أردنا الاعتماد على الذكاء الاصطناعي ليحل محل العمل البشري، فإننا نصبح بحاجة إلى التأكد من أنه يعمل كما هو مخطط له ولا يمكن أن يتغلب عليه البشر بنوايا ذاتية.

خامسًا: هل يمكننا القضاء على تحيز الذكاء الاصطناعي؟

دعونا لا ننسَ أن أنظمة الذكاء الاصطناعي تم إنشاؤها من قبل البشر، الذين قد يكونون في بعض الأحيان متحيزين أو حكماء جدًا. صحيح، يمكن للذكاء الاصطناعي، إذا تم استخدامه بشكل جيد، أن يصبح حافزًا للتغيير الإيجابي، لكنه يمكن أن يغذي التمييز أيضًا. فالذكاء الاصطناعي لديه القدرة على معالجة السرعة والسعة التي تفوق بكثير قدرات البشر؛ ومع ذلك، وبسبب التأثير البشري، لا يمكن دائمًا الوثوق بالحياد والإنصاف.

سادسًا: كيف نحمي الذكاء الاصطناعي من الأعداء؟

كلما زادت قوة التكنولوجيا، زادت إمكانية استخدامها للأغراض الجيدة، وكذلك السيئة. فالذكاء الاصطناعي ليس استثناء. لذلك، يصبح الأمن السيبراني أكثر أهمية.

سابعًا: كيف يمكن تجنب العواقب غير المقصودة؟

بجانب ذلك، هناك احتمال أن ينقلب الذكاء الاصطناعي ضدنا، إن لم يكن بطريقة عمدية، بل عن غير قصد. لنأخذ، على سبيل المثال، فكرة أن نظام ذكاء اصطناعي يُطلب منه تخليص العالم من مرض السرطان. فبعد كل عمليات الحوسبة الخاصة به، فإنه يصدر معادلة تفعل ذلك بالضبط، لكنها تقتل كل الأشخاص على هذا الكوكب، وبالتالي فإنه يكون بالفعل قد تحقق الهدف، ولكن ليس بالطريقة التي يقصدها البشر.

ثامنًا: هل هناك أي طريقة يمكننا من خلالها السيطرة على الذكاء الاصطناعي؟

إن هيمنة الإنسان لا ترجع إلى قوة العضلات والأسنان الحادة، بل إلى الذكاء والإبداع. إننا يمكننا هزيمة الحيوانات الأقوى والأكبر والأسرع؛ لأننا قادرون على إنشاء واستخدام الأدوات المادية والمعرفية للسيطرة عليها. وهو ما يمثل مصدر قلق حقيقيًا؛ إذ سيكون للذكاء الاصطناعي ذات يوم الميزة نفسها علينا. فقد تكون الآلات المدربة تدريبًا كافيًا ذات قدرة على توقع كل خطوة نقوم بها والدفاع عن نفسها ضد “سحب التيار الكهربائي”.

تاسعًا: هل ينبغي النظر في المعاملات الإنسانية للذكاء الاصطناعي؟

إن الآلات تقلدنا بدرجة ممتازة لدرجة أنها أصبحت مثل البشر يومًا بعد يوم. لذا، فإننا سنصل قريبًا إلى النقطة التي نعتبر فيها الآلات كيانات يمكنها أن تشعر وتفهم وتتصرف. بمجرد أن نصل إلى هنا، قد نفكر في وضعها القانوني. وبالتالي، هل يمكن لآلات “أن تشعر” حقًا؟

إذًا: كيف نعالج تلك القضايا الأخلاقية؟

يعتقد الكثيرون أنه نظرًا لانتشار الذكاء الاصطناعي بدرجة كبيرة في كل مكان، فمن الضروري أن يتم تنظيمه بإحكام. ومع ذلك، فهناك القليل من الإجماع حول كيفية القيام بذلك. من الذي يضع القواعد؟ حتى هذه اللحظة الشركات التي تقوم بتطوير واستخدام أنظمة الذكاء الاصطناعي في الغالب خاضعة للرقابة الذاتية. إنها تعتمد على القوانين الحالية وردود الفعل السلبية من المستهلكين والمساهمين لإبقائهم على نفس الخط. هل من الواقعي الاستمرار على هذا النحو؟ إنه من الواضح أن الأمر يبدو مختلفًا، ولكن كما هو الحال، فإن الهيئات التنظيمية ليست مجهزة بخبرة الذكاء الاصطناعي اللازمة للإشراف على تلك الشركات. وفي هذا، يشير “جيسون فورمان”، أستاذ ممارسة السياسة الاقتصادية في كلية كينيدي والمستشار الاقتصادي السابق للرئيس “باراك أوباما”، إلى أن “المشكلة هي أن شركات التكنولوجيا الكبيرة هذه لا تخضع للتنظيم الذاتي، ولا تخضع للتنظيم الحكومي المناسب. ذلك أنه من المعتقد ضرورة أن يكون هناك المزيد من الاثنين. إذ لا يمكننا أن نفترض أن قوى السوق بمفردها ستعمل على حل المشكلة. علينا أن نمكن كافة الطلاب من تعلم ما يكفي عن التكنولوجيا والآثار الأخلاقية للتقنيات الجديدة بحيث إنهم عندما يديرون شركات أو عندما يتصرفون كمواطنين ديمقراطيين، سيكونون قادرين على تأكيد أن التكنولوجيا تخدم الأغراض البشرية بدلاً من تقويض الحياة المدنية الكريمة.

أخيرًا.. فبينما يُترجم التقدم التكنولوجي إلى حياة أفضل للجميع، إلا أنه يجب أن نضع في اعتبارنا أن بعض المخاوف الأخلاقية ستتطور لتتمحور حول تخفيف المعاناة والمخاطرة بنتائج سلبية.

اترك رد

Your email address will not be published.