أخلاقيات الذكاء الاصطناعي

أخلاقيات الذكاء الاصطناعي

أخلاقيات الذكاء الاصطناعي

شارلوت تشيدر

في نوفمبر/تشرين الثاني 2022، تم إطلاق روبوت الدردشة الذكية «تشات جي بي تي» وسط ضجة قليلة. اليوم، أصبح موضوعاً ساخناً في وسائل الإعلام وأروقة السياسة، مع توجسات من نتائج مضللة أو غير أخلاقية.

في قمة مجموعة السبع في مايو/أيار الماضي، أولى قادة العالم اهتماماً خاصاً بالذكاء الاصطناعي، والتزموا بالعمل مع قادة التكنولوجيا؛ لضمان الوصول الآمن والجدير بالثقة. وفي يونيو/حزيران الفائت، وبدافع من مخاوف «تشات جي بي تي» العامة، دعا زعيم الأغلبية في مجلس الشيوخ تشاك شومر الولايات المتحدة إلى تنظيم الذكاء الاصطناعي، لتعلن لجنة التجارة الفيدرالية عن تحقيقها في خفايا التكنولوجيا التي تصدرت أخبارها عناوين الصحف المحلية والعالمية.
من الواضح أن تقنية «تشات جي بي تي» قد استحوذت على اهتمام الجمهور، سواء من خلال توقيت إصدارها أو الخصائص المبهرة التي تتميز بها. وهي تعد بأتمتة الكثير من العمل الذي يؤجل الكثير منا القيام به، من كتابة التقارير والوثائق إلى إجراء البحوث.
كما جعلتنا نتساءل جدياً عن مستقبل العمل والمدرسة، وحتى عن حياتنا الشخصية ودور الذكاء الاصطناعي فيها. فكيف سنقيّم بكفاءة اليوم أداء الموظف أثناء قيامه بواجباته الوظيفية؟ وهل سيثق المحامون والقضاة في دقة وسرية مخرجات «تشات جي بي تي» عند استخدامها لصياغة ملخصات أو إجراء بحث ذي صلة بقضية ما؟ ومن هم الأساتذة الذين سيعتقدون أن الواجب المعمول جيداً من طالب ضعيف الأداء هو في الواقع جهد الطالب نفسه؟

وهل سيكون لصانعي المحتوى أي حقوق فيما يتعلق بعملهم؟ أم للشعراء الحق بالتغني بشعرهم؟ وماذا عن معتقدات الفرد السياسية وإمكانية تأثير الذكاء الاصطناعي عليها؟ والكثير والكثير من الأسئلة المبهمة التي تنتظر إجابات عنها.

وبينما دعا قادة التكنولوجيا المطورين إلى وقف تقدم الذكاء الاصطناعي، عزز الباحثون في القطاع المخاوف والشكوك. فما مدى ضرر الذكاء الاصطناعي حقاً؟
كمن المشكلة في أنه ليست جميع أنواع تقنيات الذكاء الاصطناعي متشابهة، بل بأن العديد منها مخفية عن الرقابة العامة. وقد أدى التركيز على «تشات جي بي تي»، وهو ذكاء اصطناعي توليدي، إلى نسيان العديد من أنظمة الذكاء الاصطناعي الأخرى التي يمكن أن تسبب ضرراً خطِراً للغاية. وغالباً ما يتبنى الذكاء الاصطناعي عالي الخطورة دور «الصندوق الأسود» الذي يتخذ قرارات حاسمة ومخفية، فهذه التقنيات التي تطير بالطائرات، وتوجه الروبوتات الجراحية وأجهزة السمع القوية، هي ذاتها المدمجة في السيارات، وأدوات توجيه الطائرات العسكرية بدون طيار والأسلحة الذكية، وتشخيص السرطان، وتبسيط التصنيع المعقد، وعلاج السكري بالطاقة وإبر الإنسولين، والتنقل في مكوكات الفضاء، وتحسين الإنتاج الزراعي، وتوفير الطاقة لشاحنات النقل لمسافات طويلة. إذن، بات الذكاء الاصطناعي حرفياً جزءاً من كل قطاع حياتي.

وفي الواقع، لا تتطلب أغلبية الحكومات حتى الآن كشفاً عاماً عن أي معلومات مفصلة عن الذكاء الاصطناعي. وحتى القانون الذي اقترحه الاتحاد الأوروبي لا يفرض الكشف المفصل عن الخصائص للعموم، على الرغم من أنه يطلب من المؤسسات الكشف عن أعمالها، والتوقف عن استخدام الذكاء الاصطناعي عالي الخطورة، وإجراء تقييمات ذات صلة.

في المقابل، أصدرت إدارة الفضاء الإلكتروني في الصين، وهي الوكالة المسؤولة عن إنفاذ قانون الأمن السيبراني للبلاد، لوائح تتخذ نهجاً مختلفاً تماماً، تطلب خلالها مراجعات أمنية، وخطط ترخيص إلزامية، والتزاماً بالقيم الأساسية لمتطلبات الذكاء الاصطناعي.

وبينما قد تشكل تقنية «تشات جي بي تي» والأنظمة التوليدية الأخرى خطراً على معظم البلدان، بما في ذلك الولايات المتحدة وسكانها، فإن تقنيات متنوعة جديدة من أنظمة الذكاء الاصطناعي تشكل خطراً أكبر بسبب عدم القدرة على اختبارها والإفصاح عنها. فعلى سبيل المثال، يُحدث الذكاء الاصطناعي الذي له تأثير على جسم الإنسان أو الممتلكات المادية أضراراً واضحة، ويمكن القول إنها أكثر خطورة من الذكاء الاصطناعي التوليدي نفسه. ونظراً لأن معظم أنظمة الذكاء الاصطناعي مصممة بتقنية مترابطة مشتركة، ومع استخدام القراصنة الإلكترونيين بشكل متزايد لمُوجهات الهجوم التي تدعم الذكاء الاصطناعي، يمكن للذكاء الاصطناعي المُختَرق أن يلحق الضرر بآلاف الأشخاص في وقت واحد.

كما يمكن أن تفشل أنظمة الذكاء الاصطناعي بسبب التصميم والاختبار الخاطئين من قبل الشركة المصنعة. فمثلاً، قد يؤدي الفشل في تضمين معلومات حول التضاريس التي سيحصد فيها الحصّاد الذكي القمح إلى تلف الممتلكات أو تلف الجهاز نفسه. وعندما لا يتم تدريب الأجهزة الطبية على الأشخاص الذين سيستخدمونها (بما في ذلك العمر والعرق والجنس والاختلافات الجسدية)، فمن الممكن أن تكون غير آمنة لبعض السكان أو جميع السكان لاستخدامها، مما قد يؤدي إلى حدوث خلل في الجسم من خلال عملية جراحية خطِرة أو تشخيص خاطئ للمريض.

بالتالي، كلما أسرعنا في إدراك أن «تشات جي بي تي» ليس سوى نظام بيئي واحد ضمن نظام الذكاء الاصطناعي الأوسع يتطلب المزيد من الإفصاح والتدقيق أكثر من أي وقت مضى، كان مجتمعنا العالمي أكثر أماناً وأخلاقية.

المصدر: الخليج 

Related Posts

10 علامات تساعدك على اكتشاف الأخبار المصنوعة بالذكاء الاصطناعي

AI بالعربي – متابعات في زمن يتسارع فيه تدفق المعلومات وتزداد فيه أدوات الكتابة الرقمية ذكاءً، بات الصحفيون يواجهون تحديًا جديدًا يتمثل في التمييز بين المحتوى البشري والمحتوى الذي أنتجه…

هل يسرق الذكاء الاصطناعي قدرتنا على التفكير المستقل؟

AI بالعربي – متابعات منذ إطلاق “ChatGPT” في نوفمبر 2022، بدأ الذكاء الاصطناعي يتسلّل بعمق إلى حياتنا اليومية، مؤثرًا في طريقة تفكيرنا وتعاملنا مع المعلومات. فالأدوات الذكية مثل “AI Overview”…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 70 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 221 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 311 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 323 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 269 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 307 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟