AI بالعربي – متابعات
زايدت التحذيرات من مخاطر الذكاء الاصطناعي، لا سيما بعد إعلان الأمريكي جيوفري هينتون “الأب الروحي” للذكاء الاصطناعي والتعلم الآلي ندمه على تطوير هذه التكنولوجيا بسبب مخاطرها, وذكر هينتون الذي أعلن استقالته من عمله في شركة التكنولوجيا وخدمات الإنترنت الأمريكية جوجل في أوائل مايو الحالي إن الذكاء الاصطناعي يمكن أن يؤدي إلى فقدان أعداد كبيرة من الوظائف التي سيمكن تأديتها بالذكاء الاصطناعي بدلاً من البشر.
مخاطر الذكاء الاصطناعي
جاء إعلان “هينتون” عن مخاوفه بعد توقيع رؤساء شركات التكنولوجيا في الولايات المتحدة، خطابًا يدعو إلى وقف تطوير تكنولوجيا الذكاء الاصطناعي لمدة 6 أشهر، خوفًا من “تطوير عقول اصطناعية يمكن أن تصبح أذكى وأكثر عددًا لكي تحل محلنا وتتفوق علينا… وبعد ذلك نواجه خطر فقدان السيطرة على الحضارة الإنسانية”.
في المقابل أظهرت دراسة أكاديمية نشرتها مجلة “ساينس أدفانسز” أن أحكام أنظمة الذكاء الاصطناعي المستخدمة في تقييم المشاركات على مواقع التواصل الاجتماعي يمكن أن تكون أقسى من حكم المراجعين البشر.
وتستخدم تقنيات الذكاء الاصطناعي بدلًا من البشر لمراجعة الشكاوى والتقارير التي يرسلها مستخدمو منصات التواصل الاجتماعي ضد المحتوى المنشور على المنصات، لكن غالبًا ما لا تستطيع هذه التقنيات اتخاذ القرار المناسب بشأن التزام المنشورات على المنصة بالقواعد المقررة.
وأضاف الباحثون أنه من المحتمل أن تكون أحكام أنظمة الذكاء الاصطناعي على المنشورات “مختلفة وأكثر تشددًا من أحكام الموظفين البشر”.
وقال ميرزه جاسيمي الأستاذ المساعد في معهد ماساشوستس للتكنولوجيا “إم.آي.تي”، “أعتقد أن أغلب الباحثين في مجال الذكاء الاصطناعي والتعلم الآلي يفترضون أن تقييمات البشر للبيانات والمنشورات تكون متحيزة، لكن نتيجة هذه الدراسة تكشف عن شيء أسوأ. فهذه الأنظمة الآلية لا تعيد فقط إنتاج التقييمات البشرية المتحيزة، وإنما تعاني من وجود ثغرات في البيانات التي تعتمد عليها” في إصدار التقييمات.
وحذر جاسيمي قائلا “سينتهي بنا الأمر وقد أصبح لدينا أنظمة ذكاء اصطناعي أكثر تشددًا في التعامل مع محتوى منصات التواصل الاجتماعي من المراقبين البشر. فالمراقبون البشر يستطيعون رصد الفروقات الطفيفة بين الرسائل، لكن نماذج الذكاء الاصطناعي لا تفعل ذلك”.
المصدر: اليوم