كيف تواجه شركات التقنية معضلة انتهاء البيانات؟.. شريان الحياة للذكاء الاصطناعي

5

AI بالعربي – متابعات

في نهاية عام 2021، وبينما تدرب شركة OpenAI نماذجها للذكاء الاصطناعي، واجهت حينها أزمة في الإمداد. إذ استهلكت كل مخزون النصوص الإنجليزية الموثوقة على الإنترنت أثناء تطويرها لأحدث أنظمتها للذكاء الاصطناعي، وكانت بحاجة إلى المزيد من البيانات الجيدة لتدريب النسخة التالية من نظامها؛ فاحتاجت للكثير جدا من تلك البيانات.

لذا، ابتكر باحثو OpenAI، أداة للتعرّف على الكلام تُسمى “ويسبر Whisper”، يمكنها نسخ الأصوات من مقاطع فيديو يوتيوب، مما ينتج عنه نصوص محادثة جديدة قد تجعل نظام الذكاء الاصطناعي أكثر ذكاءً. وبحسب ما ذكرته صحيفة نيويورك تايمز، فقد ناقش بعض موظفي الشركة كيف تتعارض تلك الخطوة مع قواعد يوتيوب، إذ يحظر الموقع المملوك لشركة غوغل استخدام مقاطعه في التطبيقات المنفصلة عن المنصة.

في النهاية، فرّغ فريق OpenAI، أكثر من مليون ساعة من مقاطع فيديو يوتيوب، مستخدما تلك البيانات في تدريب نموذج ChatGPT -4″”، وهو أقوى نموذج للذكاء الاصطناعي تملكه الشركة.

مطاردات يائسة

تحول السباق نحو ريادة مجال الذكاء الاصطناعي التوليدي إلى مطاردات يائسة للوصول إلى أكبر قدر من البيانات الرقمية اللازمة لتطوير تلك التقنيات. وفي سبيل اقتناص هذا الكم الهائل من البيانات، اختصرت شركات التقنية مثل OpenAI وجوجل وميتا، كل السبل وتجاهلت سياسات الشركات وبحثت في تجاوز القانون، وفقًا لما ذكرته صحيفة نيويورك تايمز.

مثلا في شركة ميتا، التي تمتلك فيسبوك وإنستغرام، تشاور المسؤولون بشأن جمع البيانات المحمية بحقوق الطبع والنشر عبر شبكة الإنترنت، حتى إن كان يعني ذلك مواجهة دعاوى قضائية، وأضافوا أن التفاوض للحصول على تراخيص استخدام المحتوى مع الناشرين والفنانين والموسيقيين وصناعة الأخبار سيستغرق مدة زمنية طويلة.

وعلى غرار ما فعلته شركة OpenAI، استفادت جوجل من محتوى مقاطع الفيديو على يوتيوب لاستخراج نصوص لتدريب نماذجها للذكاء الاصطناعي، وهو فعل قد ينتهك حقوق النشر الخاصة بصانعي هذا المحتوى.

شريان الحياة للذكاء الاصطناعي

توضح إجراءات تلك الشركات كيف أصبحت البيانات على الإنترنت، من أخبار ومؤلفات روائية ومنشورات على وسائل التواصل الاجتماعي ومقالات ويكيبيديا والصور ومقاطع الفيديو والبودكاست والأفلام وغيرها، شريان الحياة لصناعة الذكاء الاصطناعي الناشئة. إذ يعتمد تطوير أنظمة قوية وتنافسية على وجود ما يكفي من البيانات اللازمة لتعليم تلك النماذج كيفية إنتاج نصوص وصور وأصوات ومقاطع فيديو تشبه ما ينتجه الإنسان بصورة لحظية.

هنا يجب ملاحظة أن حجم البيانات أمر بالغ الأهمية، فقد تعلمت روبوتات المحادثة الرائدة، مثل “ChatGPT”، من مجموعات هائلة من النصوص الرقمية التي تصل إلى 3 تريليونات كلمة، أو ما يقرب من ضعف عدد الكلمات المخزنة في مكتبة بودلي، وهي المكتبة البحثية الرئيسية بجامعة أكسفورد، التي تُجمع بها المخطوطات منذ عام 1602.

وأوضح الباحثون في مجال الذكاء الاصطناعي أن أكثر البيانات قيمة هي تلك المعلومات فائقة الجودة، كالكتب والمقالات المنشورة التي كتبها وحررها بعناية أفراد متخصصون في مجالاتهم.

في يناير عام 2020، نشر جاريد كابلان، عالم الفيزياء النظرية في جامعة جونز هوبكنز، ورقة بحثية رائدة عن الذكاء الاصطناعي أثارت شهية الشركات أكثر للبيانات على شبكة الإنترنت. كان استنتاجه واضحًا وصريحًا: كلما زادت البيانات المتوفرة لتدريب أحد النماذج اللغوية الكبيرة، وهي النماذج التي توجه روبوتات المحادثة، كان أداؤها أفضل. تمامًا كما يتعلّم الطالب الكثير عبر قراءة المزيد من الكتب، يمكن للنماذج اللغوية الكبيرة أن تحدد الأنماط في النصوص على نحو أفضل وتكون أكثر دقة عند حصولها على المزيد من المعلومات.

لسنوات طويلة، كانت شبكة الإنترنت، بمواقع مثل ويكيبيديا وريديت وغيرهما، تبدو مصدرًا لا ينضب من البيانات، ولكن مع تطور نماذج الذكاء الاصطناعي، نقّبت شركات التقنية في المزيد من المستودعات. وكانت شركتا غوغل وميتا، بامتلاكهما مليارات المستخدمين ممن ينتجون طلبات بحث ومنشورات على وسائل التواصل الاجتماعي كل يوم، مقيَّدتين بقوانين الخصوصية وسياساتهما الخاصة، مما يمنعهما من الاعتماد على كثير من هذا المحتوى لتدريب نماذج الذكاء الاصطناعي، لذا، أصبح وضعهما خاصًا.

يمكن لشركات التقنية أن تستنفد البيانات ذات الجودة العالية على شبكة الإنترنت بحلول عام 2026، وفقًا لمعهد “إيبوك Epoch” للأبحاث. فأصبحنا الآن في وضع تستهلك فيه تلك الشركات البيانات بوتيرة أسرع مما يجري إنتاجها من العالم أجمع على الإنترنت.

بيانات اصطناعية

أصبحت شركات التقنية متعطشة للبيانات الجديدة لدرجة أن بعضها بدأ في تطوير البيانات “الاصطناعية”. ليست بيانات طبيعية ينتجها البشر، بل هي نصوص وصور وأكواد برمجية تنتجها نماذج الذكاء الاصطناعي، أي أن الأنظمة تتعلم مما تنتجه بنفسها.

مثلًا ذكرت شركة OpenAI، أن كل نموذج من نماذجها للذكاء الاصطناعي يمتلك مجموعة بيانات فريدة من نوعها، تنظمها وتجمعها الشركة بهدف مساعدة النموذج على فهم العالم لكي تحافظ على قدرتها التنافسية في المجال.

وذكر سام ألتمان، سابقًا، أن الشركات التي تعمل مثل شركته على تطوير نماذجها، ستضطر في النهاية إلى تدريب تلك النماذج على النصوص التي يولدها الذكاء الاصطناعي أو ما يعرف بالبيانات الاصطناعية. النظرية التي يقترحها السيد ألتمان، والآخرون في هذا المجال، أنه نظرًا لقدرة نموذج الذكاء الاصطناعي على إنتاج نصوص شبيهة بالبشر، فيمكن للأنظمة أن تنتج بيانات إضافية لتطوير إصدارات أفضل من نفسها. وهذا الأمر سيساعد المطورين على ابتكار تقنيات أكثر قوة ويقلل من اعتمادهم على البيانات المحمية بحقوق الطبع والنشر.

استكشف الباحثون في المجال فكرة استخدام البيانات الاصطناعية منذ سنوات، ولكن تطوير نماذج الذكاء الاصطناعي القادرة على تدريب نفسها أسهل قولا مما يبدو عليه فعلا. لأن تلك النماذج التي تتعلم من نتائجها الخاصة قد تقع في دائرة مفرغة بحيث تعزز من عيوبها وأخطائها وقيودها الحالية.

ولمواجهة ذلك، تبحث شركة OpenAI وغيرها في كيفية عمل نموذجين مختلفين للذكاء الاصطناعي معًا لتوليد بيانات اصطناعية مفيدة وموثوقة أكثر. ينتج أحد النظامين البيانات، بينما يتولى النظام الآخر الحكم على تلك البيانات لفرز الجيد منها عن السيئ. لكن حتى هذا الحل لم يتفق الباحثون حول مدى إمكانية نجاحه من عدمها.

اترك رد

Your email address will not be published.