AI بالعربي – متابعات
كشفت تقارير صحفية أن شركة OpenAI بدأت مطالبة متعاقدين خارجيين برفع نماذج حقيقية من أعمالهم المهنية السابقة أو الحالية، في إطار سعيها لتحسين جودة بيانات تدريب نماذج الذكاء الاصطناعي.
خطوة جديدة لتعزيز واقعية بيانات التدريب
بحسب تقرير نشرته مجلة “Wired”، تأتي هذه الخطوة ضمن توجه متزايد لدى شركات الذكاء الاصطناعي للاعتماد على بيانات عالية الجودة مصدرها بيئات عمل حقيقية، بما يرفع قدرة النماذج على محاكاة المهام البشرية المعقدة.
شراكة مع Handshake AI لجمع محتوى عملي
أوضح التقرير أن OpenAI تنفذ هذه الآلية بالتعاون مع شركة Handshake AI المتخصصة في بيانات التدريب، حيث يُطلب من المتعاقدين توثيق مهام أنجزوها فعليًا في وظائفهم.
التركيز على مخرجات ملموسة لا ملخصات
تشير عروض داخلية إلى أن OpenAI تشترط رفع مخرجات حقيقية مثل ملفات Word أو PDF أو عروض PowerPoint أو جداول Excel أو صور أو مستودعات برمجية، بدل الاكتفاء بوصف نظري.
قيود صارمة على البيانات الحساسة
تؤكد الشركة ضرورة إزالة أي معلومات سرية أو بيانات شخصية قبل رفع الملفات، مع توجيه المتعاقدين لاستخدام أداة داخلية في ChatGPT تُعرف باسم “Superstar Scrubbing”.
مخاوف قانونية رغم إجراءات التنقية
رغم هذه الضوابط، حذّر مختصون في الملكية الفكرية من مخاطر محتملة مرتبطة باستخدام محتوى ناتج عن بيئات عمل خاضعة للسرية المهنية.
تحذير من الاعتماد على تقدير الأفراد
قال إيفان براون، المحامي المتخصص في الملكية الفكرية، لمجلة “Wired” إن هذا النهج يضع شركات الذكاء الاصطناعي أمام مخاطر قانونية كبيرة إذا أسيء التقدير.
الجدل حول مصادر بيانات الذكاء الاصطناعي يتجدد
تعيد هذه الخطوة فتح النقاش حول حدود استخدام المحتوى البشري في تدريب النماذج، خاصة حين يكون مرتبطًا بحقوق ملكية أو التزامات مهنية.
أتمتة وظائف الياقات البيضاء في الصدارة
يرى مراقبون أن هذا التوجه يعكس طموح OpenAI لتمكين نماذجها من تنفيذ مهام معرفية أكثر تعقيدًا داخل القطاعات المهنية.
سؤال الثقة يظل حاضرًا
يبقى التحدي الأبرز متمثلًا في قدرة الشركات على ضمان التزام المتعاقدين بالمعايير الأخلاقية والقانونية عند مشاركة أعمالهم السابقة.
الذكاء الاصطناعي بين التطوير والمسؤولية
تعكس هذه الخطوة التوازن الدقيق الذي تسعى إليه OpenAI بين تطوير نماذج أكثر كفاءة، والحفاظ على الثقة والامتثال القانوني في آن واحد.








