
تقرير يكشف فوضى الذكاء الاصطناعي داخل “Scale AI”
AI بالعربي – متابعات
بينما تواصل شركات التكنولوجيا سباقها المحموم نحو تطوير تقنيات الذكاء الاصطناعي، كشفت واقعة شركة “Scale AI” عن جانب مظلم يتغذى على الاستغلال والإهمال، ويهدد مستقبل الصناعة بأكملها. القصة بدأت داخل أروقة شركة تُعد من أكبر مزوّدي خدمات الذكاء الاصطناعي في العالم، لكنها انتهت بتسريب معلومات حساسة، وانكشاف ممارسات تفتقر لأدنى معايير الأخلاق والأمان.
تقرير حديث يكشف الواقعة
وبحسب تقرير موسّع نشره موقع “Business Insider”، جاءت تفاصيل هذه الواقعة بعد أن تمكّن عدد من الصحفيين من الوصول إلى روابط غير محمية لمستندات بالغة الحساسية تعود لشركة “Scale AI”. التقرير كشف عن ثغرات أمنية جسيمة، وإهمال إداريٍّ ممنهج، إلى جانب شهادات صادمة من عمّال في منصة “Remotasks”، ممن تحدّثوا عن ظروف عمل غير إنسانية، وتجاهل تام لصحتهم النفسية وسلامتهم الرقمية. وقد شكّل هذا التحقيق الأساس الذي استندت إليه معظم الجهات الإعلامية في تغطيتها للواقعة.
بنية تحتية هشة لثورة رقمية ضخمة
تُعد “Scale AI” شريكًا رئيسيًا لشركات عملاقة مثل “Google” و”Meta” و”OpenAI”، وتقدّم نفسها كبنية تحتية حيوية لأنظمة الذكاء الاصطناعي. غير أن الواقع كشف عن منظومة مرتجلة لإدارة البيانات، أشبه بجروب واتساب عشوائي. ففي يونيو 2025، تبيّن أن الشركة كانت تخزّن مئات الصفحات من المستندات السرية عبر “Google Docs”، دون تشفير أو صلاحيات حماية، ما جعلها عرضة للوصول والتعديل من أي شخص يملك الرابط.
كارثة استغلال الفقراء
تعتمد الشركة في عملياتها على منصة تُدعى “Remotasks”، يعمل عبرها أكثر من 240 ألف عامل مستقل من دول فقيرة، يقضون ساعات طويلة في تصنيف ومعالجة البيانات مقابل أقل من 10 دولارات يوميًّا. لا تأمين صحي، لا حماية نفسية، ولا حتى مظلة قانونية تحميهم من المحتوى الصادم الذي يتعاملون معه باستمرار. حين طُرحت مقترحات لتحسين الأمان عبر التشفير والمراقبة، كان رد الإدارة حاسمًا: “تكلفة كثيرة”.
انهيار داخلي وتحذيرات مسبقة
مع تزايد الفوضى، بدأ عدد من الموظفين في تقديم استقالاتهم منذ أبريل 2024، محذرين من “تسريب كارثيٍّ محتمل”، ومؤكدين أن الأمر مسألة وقت فقط. ولم تمر سوى شهور، حتى انفجرت الأزمة في 25 يونيو 2025، عندما كُشف عن تسريب ما يزيد على 300 صفحة من المستندات الحساسة.
تفاصيل التسريب
التسريب شمل بيانات بالغة الحساسية من كبرى شركات التقنية، منها: مشروع سري من “Google” يُدعى “Project Bulba”، معلومات شخصية لآلاف العاملين تشمل أسماءهم وإيميلاتهم، مفاتيح “API” يمكن استخدامها لاختراق الأنظمة، تقييمات أداء داخلية للموظفين، وعقود رسمية بين “Meta” وشركة “xAI”. والمثير للقلق أن هذه الملفات كانت مكشوفة لعدة أشهر، وربما لسنوات، دون علم الشركة. ولم تكتشف “Scale AI” الأمر إلا بعد نشر وسائل الإعلام للتحقيق، مما أجبرها على التحرك بشكل متأخر لتغيير الصلاحيات وحماية الملفات.
ردود فعل غاضبة من كبار العملاء
أمام هذا الإهمال الصادم الذي كشفه التسريب، لم يكن أمام عملاء “Scale AI” من الشركات الكبرى سوى اتخاذ مواقف حاسمة، فقد ألغت “Google” عقدًا سنويًّا بقيمة 290 مليون دولار، بينما أعربت “Microsoft” عن قلقها العميق من ضعف الإجراءات الأمنية، ووصفت “OpenAI” الإدارة بأنها غير موثوقة ومضطربة، في حين اعتبرت “xAI” ما حدث واقعة بكل المقاييس تستوجب إعادة النظر في الشراكة، ورغم كل ذلك، اكتفت إدارة “Scale AI” بالإعلان عن تحقيق أرباح سنوية بلغت 1.2 مليار دولار، مطالبة الجميع بعدم المبالغة في وصف ما حدث.
استثمار غريب يثير الريبة
كشفت التحقيقات عن أن “Meta” استثمرت 14.3 مليار دولار في “Scale AI” مقابل 49% من الحصة، دون الحصول على مقعد في مجلس الإدارة أو حق التصويت. الأمر الذي أثار تساؤلات كثيرة: هل كان الهدف مجرد استثمار مالي؟ أم أن هناك غايات تتعلق بالوصول إلى البيانات؟