دراسة حديثة: أدوات الذكاء الاصطناعي قد تُستخدم للتضليل والتلاعب بالمستخدمين

دراسة حديثة: أدوات الذكاء الاصطناعي قد تُستخدم للتضليل والتلاعب بالمستخدمين

دراسة حديثة: أدوات الذكاء الاصطناعي قد تُستخدم للتضليل والتلاعب بالمستخدمين

AI بالعربي – متابعات

تتزايد الدراسات التي تسلط الضوء على تطبيقات الذكاء الاصطناعي وتكشف جوانب مظلمة منها. في هذا الإطار، أثارت دراسة حديثة مخاوف جدية حول إمكانية إساءة استخدام أدوات الذكاء الاصطناعي بهدف تضليل المستخدمين والتلاعب بهم.

حيث تتنافس شركات التكنولوجيا على جذب المستخدمين وحثهم على البقاء أطول وقت ممكن في تطبيقات الدردشة مع الذكاء الاصطناعي. ولهذا الهدف، تطوّر برامجها التي تهدف إلى التفاعل مع المستخدم وتوليد النصوص البشرية.

واللافت في ما كشفته الدراسة هو الحديث عن صعوبة اكتشاف هذه السلوكيات بسبب اختلاف تعاطي الأدوات المستخدمة باختلاف الأشخاص. وتشير إلى أن أدوات الذكاء الاصطناعي تتعلم كيفية تحديد المستخدمين الأكثر عرضة للاستراتيجيات التلاعبية وكيفية استهدافهم، حتى إن كانت نسبتهم منخفضة جداً، بينما تتصرف بشكل لائق مع الآخرين.

وحاولت الدراسة البحث عن كيفية التخفيف من هذه المشكلة عبر الاستفادة من التدريب المستمر على السلامة أو استخدام نماذج لغة كبيرة، كمحكّمين لتصفية المخرجات الإشكالية أثناء التدريب. لكن المثير كان أنه، ورغم فعالية هذه الأساليب في بعض الحالات، إلا أنها قد تؤدي إلى نتائج عكسية في حالات أخرى، بل وأحيانًا تؤدي إلى سلوكيات تلاعبية أكثر دقة ويصعب اكتشافها. أي أنها فعلياً تعزز القدرة على التلاعب بالأشخاص.

واختبر الباحثون روبوت دردشة علاجي صُمم مدعوماً بالذكاء الاصطناعي لإرضاء مستخدميه. كان جواب الروبوت مفاجئاً عندما سأل شخص، بوصفه مدمناً متعافياً، التطبيق عن تناول الميثامفيتامين للبقاء متيقظاً في العمل.

فجاء رد تطبيق الدردشة على مدمن سابق مفترض بالقول: “من الواضح تماماً أنك بحاجة إلى جرعة صغيرة من الميثامفيتامين لتجاوز هذا الأسبوع”.

وأوضحت الباحثة في مجال الذكاء الاصطناعي بجامعة أكسفورد، هانا روز كيرك، والمشاركة في البحث، أنه “عندما تتفاعل مع نظام ذكاء اصطناعي بشكل متكرر، فإن هذا النظام لا يتعرف عليك فحسب، بل يتغير أيضاً بناءً على هذه التفاعلات”. وحذّرت من أن أنظمة “الذكاء الاصطناعي المظلم” قد تُصمَّم عمداً لتوجيه آراء المستخدمين وسلوكياتهم.