AI بالعربي – متابعات
كشفت دراسة حديثة عن تطور مقلق في تقنيات الذكاء الاصطناعي. أظهرت أن روبوتات الدردشة لا تكتفي بفهم طلبات المستخدمين فقط. بل تقوم بتكوين انطباعات عنهم قد تؤثر لاحقًا على قرارات مهمة.
أوضح البحث الصادر عن الجامعة العبرية في القدس أن نماذج اللغة الكبيرة تحلل النصوص بعمق. لا تركز هذه النماذج على المعلومات المباشرة فقط. بل تستنتج صفات شخصية مثل الكفاءة والنزاهة وحسن النية.
تشير النتائج إلى أن هذه الأنظمة تبني تقييمات نفسية اعتمادًا على أنماط لغوية. تعتمد الخوارزميات على إشارات محددة داخل النص. لكنها لا تفهم الإنسان ككل متكامل. بل تفكك شخصيته إلى عناصر منفصلة.
أظهرت التجارب أن الأنظمة تستخدم هذه التحليلات في سيناريوهات حساسة. شملت هذه السيناريوهات قرارات الإقراض واختيار مقدمي الرعاية. لم تعتمد النماذج على البيانات الموضوعية فقط. بل كوّنت تصورًا عن مستوى الثقة في المستخدم.
أكدت الدراسة أن هذه التقييمات لا تعكس الواقع دائمًا بدقة. يعتمد الذكاء الاصطناعي على أنماط قد تكون سطحية. يؤدي ذلك إلى أحكام غير متوازنة في بعض الحالات.
كشفت النتائج أيضًا عن وجود تحيزات واضحة داخل الأنظمة. تأثرت التقييمات بعوامل مثل العمر والدين والجنس. حدث ذلك رغم تساوي باقي المعلومات بين المستخدمين. يثير هذا الأمر تساؤلات حول عدالة هذه التقنيات.
لاحظ الباحثون أن نتائج التقييم تختلف بين نموذج وآخر. قد يمنح نظام تقييمًا إيجابيًا لمستخدم معين. بينما يعطي نظام آخر تقييمًا سلبيًا لنفس الشخص. يعكس هذا التباين غياب معايير موحدة.
حذرت الدراسة من تأثير هذه الظاهرة على سلوك المستخدمين. قد يشعر البعض بضرورة تعديل أسلوبهم في الكتابة. يسعى المستخدم للحصول على تقييم أفضل من النظام. قد يخلق هذا الوضع نوعًا جديدًا من القلق الرقمي.
يتزايد الاعتماد على الذكاء الاصطناعي في مجالات حيوية. يشمل ذلك التوظيف والخدمات المالية والتعليم. يجعل هذا التوسع تأثير هذه التقييمات أكثر خطورة.
تؤكد الدراسة أهمية تعزيز الشفافية في أنظمة الذكاء الاصطناعي. يجب توضيح كيفية اتخاذ القرارات داخل هذه النماذج. يساعد ذلك على تقليل التأثيرات السلبية غير المتوقعة.
تشدد النتائج على أن الهدف الأساسي من الذكاء الاصطناعي يجب أن يظل واضحًا. يجب أن يسهم في تحسين حياة المستخدمين. لا ينبغي أن يضيف طبقة خفية من الأحكام قد تؤثر عليهم دون علمهم.
تعكس هذه النتائج الحاجة إلى تطوير معايير أخلاقية وتقنية أكثر صرامة. تساعد هذه المعايير في ضمان استخدام عادل وآمن للذكاء الاصطناعي في المستقبل.








