بحث جديد يحذر من خطورة “العلاقات الحميمة” مع الذكاء الاصطناعي

14

AI بالعربي – متابعات

في وقت يلجأ فيه أشخاص إلى قضاء المزيد من الوقت عبر الإنترنت، فإن عصر الذكاء الاصطناعي، يدفعهم نحو الحديث مع روبوتات الدردشة، حذّر بحث جديد من أن العلاقة الحميمة مع روبوتات الدردشة قد تقوض العلاقات الإنسانية.

وفي حين أن هذه التفاعلات في البداية قد توفر تخفيفًا للتوتر وتبدو غير ضارة، لكن الأبحاث أظهرت أنها تهدد الصحة العاطفية للناس.

تقتقر إلى التعاطف

وحذّر البحث الذي أجراه معهد ماساتشوستس للتكنولوجيا بعنوان “العلاقة الحميمة المصطنعة”، من أن العلاقات مع روبوتات الدردشة والرفاق الافتراضيين التي تبدو وكأنها توفر الراحة والرفقة، تفتقر إلى التعاطف الحقيقي، ولا يمكنها تلبية حاجات المشاعر الإنسانية.

وسلّط البحث الضوء على “التعاطف المزعوم” الذي تظهره الآلات، بينما في الواقع لا تتعاطف معك ولا تهتم بك.

ووفقًا للبحث، فإن ردود الروبوتات تجعل الأشخاص يشعرون بالثقة والانفتاح، وتوفر لهم مساحة فريدة خالية من الأحكام لمشاركة أفكارهم الأكثر حميمية. وفي حين أن هذه التفاعلات قدمت راحة عاطفية مؤقتة، إلا أنها يمكن أن تقوّض العلاقات الإنسانية والتعاطف المتبادل، فأقصى ما يمكن أن يقدمه الذكاء الاصطناعي هو مساحة بعيدة عن احتكاك الرفقة والصداقة.

مفيدة في سيناريوهات معينة

في حين أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكن أن تكون مفيدة في سيناريوهات معينة، مثل تقليل العوائق التي تَحول دون علاج الصحة العقلية وتقديم تذكيرات لتناول الدواء، فمن المهم ملاحظة أن التكنولوجيا لا تزال في مراحلها الأولى، وتثير أيضًا مخاوف بشأن احتمالية الحصول على نصائح ضارة من روبوتات العلاج، وقضايا الخصوصية المهمة.

التعامل بحذر

أما بالنسبة لأولئك الذين يفكرون في التعامل مع الذكاء الاصطناعي بطريقة أكثر حميمية، شدّد البحث على أهمية تقدير الجوانب الصعبة في العلاقات الإنسانية، مثل التوتر، والاحتكاك، والصدّ، والضعف؛ لأنها تتيح لنا تجربة مجموعة كاملة من المشاعر والتواصل على مستوى أعمق، وهذا ما يجعلنا بشرًا.

ففي حين أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي يمكنها توفير الرفقة والدعم، فإنه من المهم التعامل مع هذه العلاقات بحذر؛ ففي النهاية هذه مجرد روبوتات ولا يمكنها بأي شكل من الأشكال أن تحل مكان العنصر البشري في العلاقات.

اترك رد

Your email address will not be published.