تنظيم شركات الذكاء الاصطناعي
Sam Jeans
تطالب شركات الذكاء الاصطناعي بالتنظيم. هل دافعها هو جنون العظمة، أم الإيثار، أم أن التنظيم يؤمن الأهداف التنافسية؟
في أوائل شهر مايو، كتب “لوك سيرناو”، أحد كبار مهندسي البرمجيات في جوجل، مذكرة غير رسمية حول الذكاء الاصطناعي مفتوح المصدر. وتم تداوله على نطاق واسع على أنظمة جوجل الداخلية قبل أن تقوم شركة استشارية تدعى Semi-Analys بالتحقق منه ونشره.
وهنا بعض المقتطفات:
“لقد قمنا بالكثير من الاهتمام في OpenAI. من سيعبر المعلم التالي؟ ماذا ستكون الخطوة التالية؟
لكن الحقيقة غير المريحة هي أننا لسنا في وضع يسمح لنا بالفوز بسباق التسلح هذا، وكذلك OpenAI. بينما كنا نتشاجر، كان هناك فصيل ثالث يتناول طعام الغداء بهدوء. أنا أتحدث بالطبع عن المصادر المفتوحة.
بصراحة، إنهم يداعبوننا. إن الأشياء التي نعتبرها “مشاكل كبيرة مفتوحة” تم حلها وأصبحت في أيدي الناس اليوم. في حين أن نماذجنا لا تزال تتمتع بميزة طفيفة من حيث الجودة، فإن الفجوة تتقلص بسرعة مذهلة.
تعد النماذج مفتوحة المصدر أسرع وأكثر قابلية للتخصيص وأكثر خصوصية وأكثر قدرة. إنهم يقومون بأشياء بقيمة 100 دولار و13 مليار دولار، ونكافح معها عند 10 ملايين دولار و540 مليار دولار. وهم يفعلون ذلك في غضون أسابيع، وليس أشهر.
في بداية شهر مارس، وضع مجتمع المصادر المفتوحة أيديهم على أول نموذج أساسي قادر حقًا، حيث تم تسريب LLaMA الخاص بـMeta إلى الجمهور.
لم يكن بها أي تعليمات أو ضبط للمحادثة، ولا يوجد بها RLHF. ومع ذلك، فهم المجتمع على الفور أهمية ما تم إعطاؤه لهم. تبع ذلك تدفق هائل من الابتكارات، ولم يبق سوى أيام قليلة بين التطورات الرئيسية.
ها نحن هنا، بعد مرور شهر تقريبًا، وهناك متغيرات مع ضبط التعليمات، والتكميم، وتحسينات الجودة، والتقييمات البشرية، والوسائط المتعددة، وRLHF، وما إلى ذلك، والعديد منها يعتمد بعضها على بعض. وأهم من ذلك أنهم قاموا بحل مشكلة القياس إلى الحد الذي يمكن لأي شخص إصلاحه.
العديد من الأفكار الجديدة تأتي من الناس العاديين. لقد انخفض حاجز الدخول للتدريب والتجريب من إجمالي الناتج لمنظمة بحثية كبرى إلى شخص واحد، وجهاز كمبيوتر محمول كبير الحجم.
التقطت وسائل الإعلام الكبرى مذكرة “سيرناو” وأثارت جدلاً حول ما إذا كانت جهود شركات التكنولوجيا الكبرى من أجل التنظيم تخفي دافعًا لإجبار الذكاء الاصطناعي مفتوح المصدر على الخروج من اللعبة. كتب “بن شريكسينغر” من Politico: “من الصعب أيضًا حظر التعليمات البرمجية مفتوحة المصدر نظرًا لأن حالات جديدة يمكن أن تظهر إذا حاول المنظمون إغلاق موقع ويب أو أداة تستخدمها. وإلى جانب ميزات اللامركزية الأخرى، فإن هذه المشاريع مفتوحة المصدر لديها القدرة على تعطيل ليس فقط نموذج أعمال وادي السيليكون، ولكن أيضًا نماذج الحكم في واشنطن وبروكسل.
مجتمع الذكاء الاصطناعي مفتوح المصدر مزدهر بالفعل. يقوم المطورون بحل التحديات في أيام، في حين تستغرق شهورًا أو سنوات من Google وOpenAI. يرى “سيرناو” أن المجتمعات الرشيقة لمطوري المصادر المفتوحة مجهزة بشكل أفضل لبناء نماذج متكررة من شركات التكنولوجيا الكبرى، لأنها أكثر تنوعًا وكفاءة وواقعية.
إذا كان هذا هو الحال، فإن هيمنة شركات التكنولوجيا الكبرى على الذكاء الاصطناعي قد تكون عابرة.
تسرب Meta LLaMA
تم تسريب نموذج LLaMA من Meta، وهو نموذج لغة كبير (LLM) مثل ChatGPT، على 4chan بعد أسبوع من إرسال الشركة لطلبات الوصول. في الثالث من مارس، ظهر ملف تورنت قابل للتنزيل على منتدى المراسلة وانتشر كالنار في الهشيم.
كما يشير “سيرناو” إلى أن مجتمع المصادر المفتوحة شرع في تعديل LLaMA، مضيفًا وظائف رائعة بدون موارد الكمبيوتر الخاصة بالمؤسسة.
لقد أصبح بناء نماذج قوية للذكاء الاصطناعي أرخص من أي وقت مضى، وتضغط المجتمعات مفتوحة المصدر من أجل إضفاء الطابع الديمقراطي على الوصول إليها. في حين أن LLaMA هو نموذج تم تدريبه مسبقًا إلى حد كبير، إلا أن النماذج الأخرى مفتوحة المصدر، مثل BLOOM، تم تدريبها من قبل متطوعين.
يتطلب تدريب BLOOM حاسوبًا فائقًا مزودًا بـ384 وحدة معالجة رسوميات NVIDIA A100 بسعة 80 جيجابايت، والتي تبرعت بها الحكومة الفرنسية. أعلنت شركة الذكاء الاصطناعي مفتوحة المصدر Together، مؤخرًا، عن تمويل أولي بقيمة 20 مليون دولار، ويقدم مقدمو الخدمات السحابية التي تركز على الذكاء الاصطناعي مثل CoreWeave أسعارًا للأجهزة أقل من السوق.
تمتلك المشاريع مفتوحة المصدر وسائل مختلفة لتركيز الموارد والالتفاف حول التكنولوجيا الكبيرة. ربما تود شركات التكنولوجيا الكبرى أن نعتقد أن الذكاء الاصطناعي الخاص بها هو نتاج عقود من العمل واستثمارات بمليارات الدولارات. وربما لا يتفق مع ذلك مجتمع المصادر المفتوحة.
فيما يتعلق بموضوع فصل شركات التكنولوجيا الكبرى عن مشاريع الذكاء الاصطناعي الأصغر، في حدث أقيم في الهند، سأل “راجان أناندان”، المدير التنفيذي السابق لشركة Google، سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عما إذا كان بإمكان المهندسين الهنود بناء نماذج أساسية للذكاء الاصطناعي باستثمار قدره 10 ملايين دولار.
أجاب ألتمان: “من الميؤوس منه تمامًا التنافس معنا على نماذج أسس التدريب. يجب ألا تحاول، ومن وظيفتك أن تحب المحاولة على أي حال. وأنا أومن بكلا هذين الأمرين. أعتقد أن الأمر ميؤوس منه إلى حد كبير”.
لكن “سيرناو” أوضح في مذكرته أن المصادر المفتوحة تتنافس بالفعل مع شركات التكنولوجيا الكبرى. ويقول: “إن الحفاظ على الميزة التنافسية في مجال التكنولوجيا أصبح أكثر صعوبة الآن بعد أن أصبحت الأبحاث المتطورة في ماجستير إدارة الأعمال ميسورة التكلفة. وتعتمد المؤسسات البحثية في جميع أنحاء العالم على عمل بعضها البعض، وتستكشف مساحة الحلول بطريقة شاملة تفوق قدرتنا بكثير.
يقوم مطورو المصادر المفتوحة ببناء بدائل لأنظمة الذكاء الاصطناعي الخاصة بالتكنولوجيا الكبيرة ويتفوقون عليها في الأداء وإحصائيات المستخدم.
على سبيل المثال، أصبح نظام Stable Diffusion مفتوح المصدر أكثر شعبية من نظام DALL-E الخاص بشركة OpenAI في غضون أشهر من إطلاقه.
إلى أي مدى يمكننا أن نفصل الدوافع الخفية المحتملة هنا؟ هل للدفعة التنظيمية التي تبذلها شركات التكنولوجيا الكبرى أي ميزة إيثارية؟
مجتمع الذكاء الاصطناعي مفتوح المصدر
إلى جانب LLaMA، هناك ثلاثة أمثلة رئيسية على الأقل لمشاريع الذكاء الاصطناعي مفتوحة المصدر:
تمت الشراكة بين شركة Hugging Face وما يزيد عن 1000 عالم متطوع لتطوير برنامج BLOOM، وهو نظام تعلم اللغة الطبيعية ذو المصدر المفتوح. يهدف BLOOM إلى توفير بديل شفاف وقابل للوصول للنماذج الخاصة بالذكاء الاصطناعي.
معًا: نجحت شركة ناشئة في مجال الذكاء الاصطناعي تُدعى Together في جمع 20 مليون دولار أميركي من التمويل الأولي لدعم هدفها المتمثل في بناء بدائل لامركزية لأنظمة الذكاء الاصطناعي المغلقة. لقد كشفوا عن العديد من مبادرات الذكاء الاصطناعي التوليدية مفتوحة المصدر، بما في ذلك GPT-JT وOpenChatKit وRedPajama.
– الذكاء الاصطناعي المستقر: في أبريل 2023، أطلقت Stable AI، الشركة التي تقف وراء Stable Diffusion، StableLM، وهي سلسلة من البدائل مفتوحة المصدر لـChatGPT.
ويُشار إلى أنه في حين أن بعض هؤلاء المطورين (على سبيل المثال، Stable Diffusion) يقدمون نماذجهم عبر لوحات معلومات بديهية وسهلة الاستخدام، فإن آخرين، مثل BLOOM، يحتاجون إلى موارد كبيرة للتشغيل. بالنسبة للمبتدئين، يحتاجون إلى حوالي 360 جيجابايت من ذاكرة الوصول العشوائي (RAM) لتشغيل BLOOM، ولكن هناك العديد من الحيل الرائعة لتقليل متطلبات الموارد.
نظرًا لانخفاض أسعار الأجهزة التي تدعم الذكاء الاصطناعي، وأصبحت النماذج مفتوحة المصدر أسهل في النشر، فمن الممكن جدًا أن يتمكن أي شخص تقريبًا من نشر نماذج مشابهة لـChatGPT. يستشهد تسرب مذكرة Google بأمثلة لأشخاص يقومون بضبط ونشر LLaMA على أجهزة المستهلك، بما في ذلك جهاز MacBook.
بالنسبة للشركات التي تتمتع بموارد كبيرة لتكنولوجيا المعلومات، توفر النماذج مفتوحة المصدر الأموال وتوفر سيادة البيانات والتحكم في التدريب والتحسين.
ومع ذلك، ليس الجميع متفائلين بشأن تأثير الذكاء الاصطناعي القوي مفتوح المصدر. على سبيل المثال، غرد باحث الأمن السيبراني “جيفري لاديس”، قائلاً: “استعدوا للكثير من الرسائل غير المرغوب فيها ومحاولات التصيد الاحتيالي”، و”كان توفير هذه النماذج مفتوحة المصدر فكرة رهيبة”.
وغرد مراقب آخر قائلًا: “المصدر المفتوح يمثل تهديدًا، ولكن ليس بالطريقة التي تفكر بها. إنه تهديد لأن الذكاء الاصطناعي في أيدي الأشخاص الذين يمكنهم استخدامه لتحقيق أهدافهم الخاصة يصبح من الصعب تنظيمه أو تتبعه، وهذه مشكلة أكبر.
يثير “يان ليكون”، الذي غالبًا ما يُعتبر “الأب الروحي للذكاء الاصطناعي” جنبًا إلى جنب مع “جيفري هينتون” و”يوشيو بينجمان”، رأيًا مختلفًا، إذ “بمجرد أن تصبح LLMs هي القناة الرئيسية التي يصل من خلالها الجميع إلى المعلومات، فإن الناس (والحكومات) سوف يطالبون بأن تكون مفتوحة وشفافة. يجب أن تكون البنية التحتية الأساسية مفتوحة”.
انشق LeCun أيضًا عن الروايات السائدة حول مخاطر الذكاء الاصطناعي، قائلاً: “أعتقد أن حجم مشكلة محاذاة الذكاء الاصطناعي مبالغ فيه بشكل يبعث على السخرية، كما تم الاستهانة بقدرتنا على حلها على نطاق واسع”. رد “إيلون” ماسك على x قائلاً: “هل تعتقد حقًا أن الذكاء الاصطناعي سيف ذو حدين؟”.
وعقد معلقون آخرون أوجه تشابه بين تنظيم الذكاء الاصطناعي والتشفير، حيث حاولت حكومة الولايات المتحدة حظر أساليب التشفير العامة من خلال تصنيفها على أنها “ذخائر”، وأُطلق عليها اسم “حروب التشفير”.
والآن، أصبح لكل شخص تقريبًا الحق في استخدام التشفير ــ ولكن الفوز بهذه المعركة كان بشق الأنفس ــ كما قد يكون الحال مع الذكاء الاصطناعي مفتوح المصدر.
عزل OpenAI للذكاء الاصطناعي مفتوح المصدر
المصدر المفتوح هو أكثر من مجرد برمجيات وتعليمات برمجية وتكنولوجيا. إنه المبدأ أو العقلية أو الاعتقاد بأن بيئة العمل التعاونية والمفتوحة والشفافة تتفوق على المنافسة في السوق المغلقة.
لقد ابتعدت شركة OpenAI، التي كانت في يوم من الأيام شركة غير ربحية تركز على التعاون العام وتطوير المصادر المفتوحة، عن الاسم الذي تحمله.
انتقلت الشركة الناشئة إلى شركة “هادفة للربح” في عام 2019، مما أدى فعليًا إلى إنهاء علاقة الشركة مع مجتمع المصادر المفتوحة. أدى الاستثمار من Microsoft إلى فصل OpenAI عن أي نوع من أنشطة البحث والتطوير “المفتوحة”.
في منتصف شهر مايو، أعلنت الشركة عن نموذج مفتوح المصدر قيد التنفيذ، لكنها لم تكن صريحة بشأن التفاصيل.
والآن، تسعى شركة OpenAI إلى فرض التنظيمات التي من شأنها أن تلحق الضرر الأشد بشركات الذكاء الاصطناعي الناشئة، فضلًا عن احتمال تجريم مجتمع المصادر المفتوحة.
هناك من انتقد مساعي شركة OpenAI فيما يتعلق بجهودها للتنظيم، حيث يرونها مبادرة تجارية تهدف إلى حماية نماذجها الربحية من المجتمعات ذات المصدر المفتوح التي تسعى لإضفاء طابع ديمقراطي على الذكاء الاصطناعي.
هل يشكل الذكاء الاصطناعي مفتوح المصدر خطرًا على شركات التكنولوجيا الكبرى؟
إن الجمع بين مذكرة جوجل المسربة، وضغط شركات التكنولوجيا الكبرى من أجل التنظيم، وتشويه سمعة ألتمان لمشاريع الذكاء الاصطناعي الشعبية، يثير بعض الدهشة. والواقع أن شرعية مخاطر الذكاء الاصطناعي ــ التي تبرر التنظيم ــ أصبحت محل شك.
على سبيل المثال، عندما نشر مركز سلامة الذكاء الاصطناعي (CAIS) بيانه الزلزالي حول مخاطر الذكاء الاصطناعي، والذي شارك في التوقيع عليه العديد من الرؤساء التنفيذيين للذكاء الاصطناعي، لم يكن بعض المراقبين الخارجيين مقتنعين.
وفي مجموعة مختارة من ردود أفعال الخبراء على البيان الذي نشره مركز الإعلام العلمي، قال الدكتور “مهيري أيتكين”، زميل أبحاث الأخلاقيات في معهد آلان تورينج: “في الآونة الأخيرة، أصبحت هذه الادعاءات تأتي بشكل متزايد من شركات التكنولوجيا الكبرى، وخاصة في وادي السيليكون. في حين يشير البعض إلى أن ذلك بسبب وعيهم بالتقدم التكنولوجي، أعتقد أنه في الواقع بمثابة أسلوب لتشتيت الانتباه. إنه يصرف الانتباه بعيدًا عن قرارات شركات التكنولوجيا الكبرى (الأشخاص والمنظمات) الذين يطورون الذكاء الاصطناعي ويقودون الابتكار في هذا المجال، وبدلاً من ذلك يركزون الانتباه على سيناريوهات مستقبلية افتراضية، والقدرات المستقبلية المتخيلة للذكاء الاصطناعي”.
يزعم البعض أن شركات التكنولوجيا الكبرى لديها القوة اللازمة لتخصيص الموارد للأخلاقيات والحوكمة والمراقبة، مما يمكنها من التخلص من أسوأ القواعد التنظيمية والاستمرار في بيع منتجاتها.
ومع ذلك، من الصعب في الوقت نفسه إدانة مخاطر الذكاء الاصطناعي باعتبارها خيالًا والادعاء بأنه لا قيمة للتنظيم.
هناك متشككون في كلا المعسكرين
إن استبعاد مخاطر الذكاء الاصطناعي باعتبارها مجرد تخمينات قد يثبت أنه خطأ فادح للبشرية.
في الواقع، حذر المعلقون الذين ليس لديهم تضارب في المصالح من الذكاء الاصطناعي لعقود من الزمن، بما في ذلك البروفيسور الراحل “ستيفن هوكينج”، الذي قال إن الذكاء الاصطناعي “يمكن أن يعني نهاية الجنس البشري” ويكون “أسوأ حدث في تاريخ حضارتنا”.
في حين قد يجادل البعض بأن شركات التكنولوجيا الكبرى تستخدم رؤى نهاية العالم للذكاء الاصطناعي لتعزيز هياكل السوق ورفع الحواجز أمام الدخول، فإن هذا لا يحجب شرعية مخاطر الذكاء الاصطناعي.
على سبيل المثال، أثبتت فرق أبحاث الذكاء الاصطناعي بالفعل قدرة الذكاء الاصطناعي على تحديد أهداف ناشئة بشكل مستقل مع عواقب وخيمة محتملة.
وتشير تجارب أخرى إلى أن الذكاء الاصطناعي قادر على جمع الموارد بشكل نشط، وتجميع الطاقة، واتخاذ خطوات استباقية لمنع نفسه من “التوقف عن العمل”. وتشير دراسات موثوقة إلى أن بعض مخاطر الذكاء الاصطناعي على الأقل ليست مبالغ فيها.
وجهات نظر متوافقة؟
السؤال الذي يطرح نفسه هو: هل يمكننا الاعتماد على الذكاء الاصطناعي القوي بشكل استثنائي، بما في ذلك في مجتمعاتنا المختلفة وعلى مختلف المستويات، بدءًا من المختبرات البحثية في شركات التكنولوجيا الكبرى وصولاً إلى المجتمعات التي تعتمد على تطوير الذكاء الاصطناعي ذي المصدر المفتوح.
قد ترغب شركات التكنولوجيا الكبرى في توحيد هياكل السوق مع تعزيز المخاوف الحقيقية بشأن مستقبل الذكاء الاصطناعي. وهما ليسا بالضرورة متنافيين.
ومن ناحية أخرى، أصبح صعود الذكاء الاصطناعي مفتوح المصدر أمرًا لا مفر منه، ويهدد التنظيم بإثارة الاستياء بين المجتمع الذي يمتلك واحدة من أخطر التكنولوجيات التي عرفتها البشرية.
لقد فات أوان إخضاع الذكاء الاصطناعي مفتوح المصدر من خلال التنظيم، ومحاولة القيام بذلك قد تؤدي إلى عصر مدمر من حظر الذكاء الاصطناعي.
وفي الوقت نفسه، يجب أن تكون مناقشات المخاطر المتعلقة بالذكاء الاصطناعي مستندة إلى الأدلة، حيث تعتبر الأدلة الوحيدة الموضوعية التي لدينا لفهم إمكانية وجود أضرار ناجمة عن هذه التكنولوجيا.
المصدر : Daily AI