AI بالعربي – متابعات
كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي أصبحت قادرة على تحليل سجلات الدردشة واستنتاج السمات الشخصية للمستخدمين بدقة ملحوظة، ما يفتح الباب أمام تساؤلات واسعة حول الخصوصية ومستقبل استخدام البيانات الشخصية.
واعتمدت الدراسة على تحليل آلاف المحادثات التي أجراها مستخدمون مع “ChatGPT”، بهدف معرفة مدى قدرة النماذج الذكية على فهم أنماط السلوك والصفات النفسية من خلال النصوص اليومية فقط، دون الحاجة إلى اختبارات تقليدية أو معلومات مباشرة من المستخدم.
وأجرى باحثون من المعهد الفدرالي للتكنولوجيا في زوريخ “ETH Zurich” الدراسة على 668 مستخدمًا من الولايات المتحدة والمملكة المتحدة. ووافق المشاركون على مشاركة نسخ من سجلات محادثاتهم مع “ChatGPT” لأغراض البحث العلمي.
وحلل الباحثون أكثر من 62 ألف محادثة. ثم صنفوها وفق الموضوعات والأساليب اللغوية وطبيعة التفاعل داخل كل محادثة. وبعد ذلك، درب الفريق نموذج ذكاء اصطناعي مخصصًا لاستنتاج السمات الشخصية للمستخدمين.
وركزت الدراسة على ما يعرف في علم النفس باسم “السمات الخمس الكبرى”، وهي التوافقية، والضميرية، والاستقرار العاطفي، والانبساطية، والانفتاح على الخبرة. كما خضع المشاركون لاختبارات نفسية معيارية للمقارنة بين النتائج البشرية وتقديرات الذكاء الاصطناعي.
وأظهرت النتائج أن النموذج تمكن من التنبؤ ببعض السمات الشخصية بدقة وصلت إلى 61%. وحقق أفضل أداء في تحليل سمة التوافقية والاستقرار العاطفي، بينما واجه صعوبة أكبر في تقييم الضميرية بدقة عالية.
وأكد الباحثون أن كفاءة النموذج ارتفعت كلما زادت كمية المحادثات المتاحة للتحليل. ويعني ذلك أن الاستخدام المتكرر لمنصات الذكاء الاصطناعي يمنح هذه الأنظمة قدرة أكبر على فهم شخصيات المستخدمين مع مرور الوقت.
وترى الدراسة أن المخاطر الحالية على الأفراد قد تبدو محدودة نسبيًا، لكن التهديد الحقيقي يظهر عند استغلال هذه البيانات على نطاق واسع من قبل جهات تسعى إلى التأثير على الرأي العام أو توجيه المستخدمين بطرق غير مباشرة.
وحذر الباحثون من إمكانية استخدام تحليلات الشخصية في حملات التضليل الإعلامي أو الدعاية السياسية الموجهة، خاصة عندما تقترن هذه البيانات بخوارزميات الاستهداف والإعلانات الرقمية.
وأشار التقرير إلى أن تطوير أدوات لحذف التفاصيل التعريفية تلقائيًا قد يمثل خطوة مهمة لحماية خصوصية المستخدمين مستقبلاً. كما شدد الباحثون على أهمية تعزيز الشفافية في كيفية جمع البيانات وتحليلها داخل أنظمة الذكاء الاصطناعي.
وتأتي هذه الدراسة في وقت تتوسع فيه تطبيقات الذكاء الاصطناعي بسرعة كبيرة، بينما تتزايد المخاوف المتعلقة بالخصوصية الرقمية واستخدام البيانات الشخصية في بناء نماذج أكثر قدرة على فهم السلوك البشري والتأثير فيه.








