تحذيرات من تدريب الذكاء الاصطناعي على الكذب بسهولة

26

AI بالعربي – متابعات

حذرت دراسةٌ جديدةٌ من إمكانية تدريب نماذج الذكاء الاصطناعي المتقدمة على الكذب على البشر وخداعهم بكل سهولة.

ووفقًا لصحيفة “الإندبندنت” البريطانية، فقد اختبر الباحثون في شركة “Anthropic” الناشئة للذكاء الاصطناعي ما إذا كانت روبوتات الدردشة المتطورة مثل “ChatGPT” يمكن أن تتعلم الكذب من أجل خداع الناس.

ووجد الفريق أن هذه الروبوتات لا تستطيع تعلم الكذب فحسب، بل من المستحيل إعادة تدريبها بعد ذلك على قول الحقيقة والمعلومات الصحيحة باستخدام تدابير السلامة الخاصة بالذكاء الاصطناعي المتاحة في الوقت الحالي.

وحذر الباحثون من وجود “شعور زائف بالأمان” تجاه أنظمة الذكاء الاصطناعي والمعلومات المستمدة منها.

وأشار الفريق إلى خطورة برمجة المحتالين وقراصنة الإنترنت لأنظمة الذكاء الاصطناعي على الكذب وإخفاء الأضرار التي قد تنتج عن عملية شرائية معينة أو عن الدخول إلى موقع ما.

وأصبحت مسألة سلامة الذكاء الاصطناعي مصدر قلق متزايد لكل من الباحثين والمشرعين في الفترة الأخيرة.

ولطالما عبر الباحثون عن خوفهم من تسبب هذه الأنظمة في انتشار المعلومات الخاطئة على نطاق واسع، خصوصًا عبر التزييف العميق، واستخدام أعمال المبدعين دون إسناد، وخسارة هائلة في الوظائف.

وحذَّر تحليلٌ أجراه صندوق النقد الدولي قبل يومين من أن الذكاء الاصطناعي يمكن أن يؤثر على ما يقرب من 40 في المائة من الوظائف ويُفاقم عدم المساواة.

وتتشابه نتائج تحليل صندوق النقد مع أخرى أصدرها بنك “غولدمان ساكس” عام 2023، الذي قدَّر أن الذكاء الاصطناعي يمكن أن يحلَّ محل ما يعادل 300 مليون وظيفة بدوام كامل، لكنه أشار إلى أن هذه التقنية قد تؤدي إلى طفرة في الإنتاجية.

وتحاول الحكومات في جميع أنحاء العالم إنشاء لوائح تنظيمية، أو قوانين للذكاء الاصطناعي، تعمل على تعزيز السلامة والاستخدام العادل، مع الاستمرار في تشجيع الابتكار.

اترك رد

Your email address will not be published.