أخلاقيات الابتكار في الذكاء الاصطناعي التوليدي ومستقبل البشرية
رولف شوارتزمان، مونيش داردا
يتمتع الذكاء الاصطناعي بالقدرة على تغيير النسيج الاجتماعي والثقافي والاقتصادي للعالم. فكما أدى التلفزيون والهاتف الخلوي والإنترنت إلى إحداث تحول جماعي، فإن تطورات الذكاء الاصطناعي التوليدية، مثلChatGPT ستخلق فرصًا جديدة لم تتخيلها البشرية بعد.
وتأتي القوة العظمى مع مخاطرة كبيرة، ولا يخفى على أحد أن الذكاء الاصطناعي التوليدي قد أثار أسئلة جديدة حول الأخلاق والخصوصية، وأحد أكبر المخاطر هو أن المجتمع سيستخدم هذه التكنولوجيا بشكل غير مسؤول. ولتجنب هذه النتيجة، ينبغي ألا يتجاوز الابتكار المساءلة. ويجب تطوير إرشادات تنظيمية جديدة بنفس المعدل الذي نشهد فيه قيام اللاعبين الرئيسيين في التكنولوجيا بإطلاق تطبيقات ذكاء اصطناعي جديدة.
لفهم الألغاز الأخلاقية حول الذكاء الاصطناعي التوليدي تمامًا، وتأثيرها المحتمل على مستقبل سكان العالم، يجب أن نفهم هذه النماذج اللغوية الكبيرة، وكيف يمكنها إحداث تغيير إيجابي، وأين يمكن أن تقصر.
تحديات الذكاء الاصطناعي التوليدي
يمتلك البشر القدرة على الإجابة عن الأسئلة بناءً على التركيب الجيني (الطبيعة)، والتعليم والتعلم الذاتي، والمراقبة (التنشئة). ومن ناحية أخرى، تمتلك آلة مثل ChatGPT بيانات العالم بأسره. ومثلما تؤثر التحيزات البشرية على استجاباتنا، فإن مخرجات الذكاء الاصطناعي متحيزة من خلال البيانات المستخدمة لتدريبه. ونظرًا لأن البيانات غالبًا ما تكون شاملة وتحتوي على العديد من وجهات النظر، فإن الإجابة التي يقدمها الذكاء الاصطناعي التوليدي تعتمد على كيفية طرح السؤال.
ويتمتع الذكاء الاصطناعي بإمكانية الوصول إلى تريليونات من التيرابايت من البيانات، مما يسمح للمستخدمين “بتركيز” انتباههم من خلال الهندسة أو البرمجة الفورية لجعل المخرجات أكثر دقة. هذا ليس سلبيًا إذا تم استخدام التكنولوجيا لاقتراح الإجراءات، ولكن الحقيقة هي أنه يمكن استخدام الذكاء الاصطناعي التوليدي لاتخاذ القرارات التي تؤثر في حياة البشر.
على سبيل المثال، عند استخدام نظام ملاحة، يحدد الإنسان الوجهة، ويحسب الجهاز أسرع طريق استنادًا إلى بيانات حركة المرور على الطريق. ولكن إذا طُلب من نظام الملاحة تحديد الوجهة، فهل يتناسب عملها مع النتيجة المرجوة من الإنسان؟ علاوة على ذلك، ماذا لو لم يتمكن الإنسان من التدخل وقرر القيادة في طريق مختلف عما يقترحه نظام الملاحة؟ لقد جرى تصميم الذكاء الاصطناعي التوليدي لمحاكاة الأفكار في اللغة البشرية من الأنماط التي شهدتها من قبل، وليس إنشاء معرفة جديدة أو اتخاذ القرارات. وإن استخدام التكنولوجيا لهذا النوع من حالات الاستخدام، هو ما يثير مخاوف قانونية وأخلاقية.
حالات الاستخدام في العمل
تطبيقات منخفضة المخاطر
ستركز التطبيقات منخفضة المخاطر والمبررة أخلاقيًا على نهج يكون للإنسان دور مهم فيه، من حيث المساءلة والمسؤولية, مثلاً، إذا تم استخدام ChatGPT في فصل الأدب بالجامعة، يمكن للأستاذ الاستفادة من المعرفة التقنية بشكل يساعد الطلاب على مناقشة الموضوعات المطروحة واختبار فهمهم للمادة. ويمكن للذكاء الاصطناعي دعم التفكير الإبداعي بنجاح، وتوسيع وجهات نظر الطلاب كأداة تعليمية تكميلية، إذا كان الطلاب قد قرأوا المواد، ويمكنهم مقارنة الأفكار التي تم محاكاتها بواسطة الذكاء الاصطناعي مع أفكارهم الخاصة.
تطبيقات متوسطة الخطورة
تمثل بعض التطبيقات مخاطر متوسطة وتتطلب انتقادات إضافية بموجب اللوائح، لكن يمكن أن تتفوق المكافآت على المخاطر عند استخدامها بشكل صحيح. على سبيل المثال، يمكن للذكاء الاصطناعي تقديم توصيات بشأن العلاجات والإجراءات الطبية، بناءً على التاريخ الطبي للمريض، والأنماط التي يحددها في مرضى مشابهين. ومع ذلك، فإن المُضي قُدمًا في هذه التوصية دون استشارة خبير طبي بشري يمكن أن يكون له عواقب وخيمة. وفي نهاية المطاف، يجب ترك القرار للمريض بشأن استخدام بياناته الطبية. ولكن لا ينبغي الحذر عند استخدام الذكاء الاصطناعي التوليدي في إنشاء خطة رعاية دون ضوابط وتوازن مناسب.
تطبيقات محفوفة بالمخاطر
تتميز تطبيقات الذكاء الاصطناعي عالية المخاطر بنقص المساءلة البشرية وقدرتها على اتخاذ قرارات مستقلة. على سبيل المثال، لا يمكن تصور “قاض آلي” في منظمة العفو الدولية يترأس قاعة المحكمة وفقًا لقوانيننا. غير أن استخدام الذكاء الاصطناعي من قبل القضاة والمحامين يمكن أن يكون مفيدًا في إجراء أبحاثهم، واقتراح مسار عمل للدفاع، أو الادعاء، ولكن عندما تتحول التكنولوجيا إلى أداء دور القاضي، فإنها تشكل تهديدًا مختلفًا. فالقضاة هم أمناء على سيادة القانون، وهم ملتزمون بالقانون والضمير، وهذا ما لا يمكن لقاضٍ آلي القيام به. قد تكون هناك طرق في المستقبل للذكاء الاصطناعي لمعاملة الناس بإنصاف ودون تحيز، ولكن في الوقت الحالي، يمكن للبشر فقط أن يتحملوا مسؤولية أفعالهم.
خطوات فورية نحو المساءلة
لقد دخلت العملية التنظيمية للذكاء الاصطناعي التوليدي مرحلة حاسمة، إذ يجب النظر في تطبيقات مثل هذه في الممارسة العملية. ولا توجد إجابة سهلة؛ لأن البحث في سلوك الذكاء الاصطناعي وتطوير الإرشادات لا يزال مستمرًا. ولكن هناك أربع خطوات يمكننا اتخاذها الآن لتقليل المخاطر الفورية:
الحوكمة الذاتية: يجب أن تتبنى كل منظمة إطارًا للاستخدام الأخلاقي والمسؤول للذكاء الاصطناعي داخل شركتها. وقبل أن يتم وضع اللوائح وتصبح قانونية، يمكن للحكم الذاتي أن يحدد ما يصلح وما لا يصلح.
الاختبار: يعد إطار الاختبار الشامل أمرًا بالغ الأهمية، وهو إطار يتبع القواعد الأساسية لاتساق البيانات، مثل: اكتشاف التحيز في البيانات، وقواعد البيانات الكافية لجميع الديموغرافيات والمجموعات، وصحة البيانات. ويمكن أن يضمن اختبار هذه التحيزات والتناقضات تطبيق إخلاء المسؤولية والتحذيرات على الناتج النهائي، تمامًا مثل الأدوية التي تستلزم وصفة طبية حيث يتم ذكر جميع الآثار الجانبية المحتملة. ويجب أن يكون الاختبار مستمرًا وألا يقتصر على إصدار ميزة مرة واحدة.
العمل المسؤول: المساعدة البشرية مهمة بغض النظر عن مدى ذكاء الذكاء الاصطناعي التوليدي “الذكي”. ويمكن ضمان الإجراءات التي يتخذها الذكاء الاصطناعي عبر مرشح بشري، وهو ما يضمن الاستخدام المسؤول للذكاء الاصطناعي والتحقق من أن الممارسات يتحكم فيها الإنسان بشكل صحيح من البداية.
التقييم المستمر للمخاطر: إن النظر فيما إذا كانت حالة الاستخدام تندرج ضمن فئة المخاطر المنخفضة أو المتوسطة أو عالية المخاطر، التي يمكن أن تكون معقدة، سيساعد في تحديد الإرشادات المناسبة التي يجب تطبيقها لضمان المستوى الصحيح للحوكمة. ولن يؤدي نهج “مقاس واحد يناسب الجميع” إلى حوكمة فعالة.
ChatGTP هو مجرد غيض من فيض للذكاء الاصطناعي التوليدي. إذ تتقدم التكنولوجيا بسرعة فائقة، وسيحدد تحمل المسؤولية الآن كيف تؤثر ابتكارات الذكاء الاصطناعي على الاقتصاد العالمي، من بين العديد من النتائج الأخرى. ونحن في مكان مثير للاهتمام في تاريخ البشرية حيث يتم التشكيك في “إنسانيتنا” من قبل التكنولوجيا التي تحاول تقليدنا.
ينتظرنا عالم جديد وجريء، وعلينا أن نكون مستعدين بشكل جماعي لمواجهته.
المصدر: Venture Beat