بيانات تدريب الذكاء الاصطناعي تشعل الحروب

37

AI بالعربي – متابعات

تواجه شركات التكنولوجيا تحديًا يتمثل في كيفية الموازنة بين مطالبة المستخدمين بالمزيد من البيانات من أجل تقديم ميزات جديدة للذكاء الاصطناعي دون تخويف الشركات والمستهلكين المهتمين بالخصوصية.

ويريد المستهلكون الشفافية حول وقت استخدام الذكاء الاصطناعي وتدريبه، ولكن الشركات تلجأ إلى اللغة القانونية عند كتابة هذه التفاصيل بخط صغير تصعب قراءته مع إخفائها ضمن المستندات من أجل منح شركات التكنولوجيا المزيد من الحقوق.

وواجهت شركة عقد المؤتمرات عبر الفيديو Zoom رد فعل عنيفًا بسبب المخاوف من استخدام محتويات دردشة الفيديو لتدريب أنظمة الذكاء الاصطناعي, وفقا لما نشرته aitnews.

ودفعت هذه الخطوة كبير مسؤولي المنتج ضمن الشركة إلى كتابة تدوينة اعتذار، ولكن Zoom ليست وحدها في البحث عن المزيد من بيانات المستهلك من أجل تدريب نماذج الذكاء الاصطناعي.

وتنص أمازون، على سبيل المثال، على أنها تجمع محتوى المستخدم من أجل تحسين خدمات ويب أمازون والتعلم الآلي وتقنيات الذكاء الاصطناعي التابعة لبعض الخدمات.

وتلجأ الشركات إلى أساليب مختلفة لضمان وصولها إلى بيانات المستخدم. وفي الوقت نفسه، تضيف العديد من الشركات لغة تمنع أي شخص آخر من جمع بيانات مواقها الإلكترونية لتدريب أنظمة الذكاء الاصطناعي، حيث أخطرت شركة البيع بالتجزئة Instacart هذا الأسبوع العملاء بمثل هذه التغييرات.

وحدثت صحيفة نيويورك تايمز، التي تفكر في اتخاذ إجراء قانوني ضد مزودي الذكاء الاصطناعي، في 3 أغسطس شروط الخدمة لمنع استخدام محتواها في تدريب نظام التعلم الآلي أو الذكاء الاصطناعي.

كما حدثت مايكروسوفت شروطها للخدمة لتأكيد حقها في استخدام البيانات لتدريب الذكاء الاصطناعي مع منع الآخرين من هذا النوع من الاستخدام، وصرحت بأنها لن تستخدم البيانات من المنتجات الموجهة للأعمال، مثل Microsoft 365، لتدريب نماذجها.

وتتمتع بعض الشركات الكبيرة بالقدرة على فرض شروطها، ولكن ليس لدى المستهلكين والشركات الصغيرة خيار بخلاف النقر على زر الموافقة أو التوقف عن استخدام الخدمة.

وقال المحامي رايان كلاركسون، الذي تقاضي شركته عددًا من شركات الذكاء الاصطناعي: “أعتقد أننا بحاجة إلى إعادة بناء طريقة عمل الموافقة المستنيرة. شروط اتفاقيات الخدمات ترقى إلى شكل من أشكال الإكراه”.

ويشعر المستهلكون بالعجز أمام الشركات التقنية الكبرى المتشابكة جدًا في جميع جوانب الحياة الشخصية والمهنية.

وعانت Zoom عواقب حقيقية من رد الفعل العنيف الذي واجهته، حيث أشار أكثر من ثلاثة أرباع المشاركين في استطلاع شمل 1074 بالغًا أمريكيًا إلى أن الثقة في Zoom انخفضت بعد الجدل الأخير.

ويعزز غياب قانون الخصوصية الفيدرالي بيئة تطوير الذكاء الاصطناعي التي تسمح للشركات بالحصول على المزيد من البيانات دون مواجهة قيود أو عواقب، ولكن يزداد الضغط من أجل التنظيم مع اكتشاف المستخدمين المزيد من الأمثلة على الممارسات غير الشفافة لجمع البيانات.

ويسعى الاتحاد الأوروبي إلى تنفيذ قانونه للذكاء الاصطناعي، في حين تفكر بعض الدول أيضًا في دخول مجال تنظيم التقنية الناشئة.

ويؤكد مخطط ميثاق حقوق الذكاء الاصطناعي للبيت الأبيض – غير المقننة بعد في أي نوع من أنواع القوانين الملزمة – توقعات المستخدم بأن البيانات الضرورية للغاية تُجمع ضمن السياق المحدد فقط، كما يؤكد كون طلبات الموافقة مختصرة ومفهومة وبلغة واضحة.

يشار إلى أن هذا المخطط لا يزال بعيدًا عن تحوله إلى سياسة قابلة للتنفيذ، ويتطلب الكثير مما يقترحه البيت الأبيض إجراءً من الكونغرس، الذي كان بطيئًا في التشريع بشكل عام.

ويوصي المحامون، في ظل غياب اللوائح التي تغطي كيفية استخدام الأنظمة لبيانات العملاء، المستهلكين بالتدقيق في الخدمات التي يستخدمونها، والنظر في مدى حساسية البيانات المجمعة، والبقاء على اطلاع على أي تغييرات تجرى على شروط الخدمة.

وأشار عدد من شركات التكنولوجيا إلى أن الإفصاحات المقدمة للعملاء توضح كيفية استخدام بياناتهم في الخدمات الحالية، ولكن الخبراء القانونيين يشيرون إلى ضرورة الانتباه عندما تمنح شروط الخدمة أذونات واسعة لاستخدام بيانات المستخدم لتدريب أنظمة التقنية الناشئة.

اترك رد

Your email address will not be published.