تحذيرات علمية من التعلّق العاطفي بتطبيقات الذكاء الاصطناعي

AI بالعربي – متابعات

حذَّرت دراسة علمية من مخاطر الإفراط في قضاء الوقت مع تطبيقات محادثة الذكاء الاصطناعي الثرثارة، مع ازدياد قدرات هذه المنصات؛ حيث يمكن أن تدفع بعض المستخدمين إلى الانخراط فيما يشبه العشق أو العلاقة الرومانسية مع هذه التطبيقات.

وقال دانييل شانك، الباحث في جامعة ميسوري الأميركية: “إن قدرة الذكاء الاصطناعي على التصرف الآن مثل الإنسان، والدخول في حوارات طويلة الأمد، تفتح حقًا صندوقًا جديدًا للشرور”.

وفي ورقة بحثية نشرتها مجلة “اتجاهات العلوم المعرفية” العلمية، قال شانك وزملاؤه، إن هناك “قلقًا حقيقيًا” من أن “الحميمية المصطنعة” مع تطبيقات محادثة الذكاء الاصطناعي قد تشهد بعض “الاضطراب” في العلاقات الإنسانية، وفقًا لما ذكرته “وكالة الأنباء الألمانية”.

وقال فريق البحث: “بعد أسابيع وشهور من المحادثات المكثفة بين المستخدم ومنصة محادثة الذكاء الاصطناعي، يمكن أن تصبح الأخيرة – بالنسبة للمستخدم – الرفيق الموثوق فيه الذي يعرف كل شيء عنه ويهتم بشؤونه”.

في الوقت نفسه، تكون برامج محادثة الذكاء الاصطناعي معرضة لما يسمى بـ”الهلوسة”، وهو المصطلح الذي يستخدمه المطلعون على ميول هذه البرامج إلى إنتاج استجابات تبدو غير دقيقة أو غير متماسكة، تشكل سببًا آخر للقلق؛ لأن هذا يعني أن “حتى المحادثات القصيرة الأمد مع الذكاء الاصطناعي يمكن أن تكون مضللة”.

ويقول الباحثون معدو الدراسة: “إذا بدأنا التفكير في تطبيقات الذكاء الاصطناعي بهذه الطريقة، فسنبدأ الاعتقاد بأنها تهتم بمصلحتنا، بينما في الواقع قد تلفِّق الأمور، أو تقدم المشورة لنا بطرق سيئة للغاية»، مضيفين أن التطبيقات “يمكن أن تؤذي الناس من خلال تشجيع السلوكيات المنحرفة وغير الأخلاقية وغير القانونية”.

وفي الأسبوع الماضي، أعلنت شركة تقنيات الذكاء الاصطناعي OpenAI عن تحسين وظيفة “الذاكرة” في تطبيق الذكاء الاصطناعي ChatGPT، وهو ما يعني أن التطبيق سيصمم ردوده على المستخدم بناءً على استدعاء التفاعلات السابقة بينهما، مما يُرجح أن يعزز الشعور بالألفة في العلاقة بين الإنسان والتطبيق.

اترك رد

Your email address will not be published.