ماذا تتوقع من الذكاء الاصطناعي في عام 2023؟
مشاكل إنشاء عمل فني عبر الذكاء الاصطناعي
مع نجاح لينسا، تطبيق selfie المدعوم بالذكاء الاصطناعي من مختبرات بريزما التي أصبحت فيروسية ، يمكنك توقع الكثير من التطبيقات على طول هذه الخطوط أيضًا. وتوقع منهم أن يتم خداعهم لإنشاء الصور أيضًا. NSFW – صور غير ملائمة للعمل ، وغالبًا ما تتعلق بمحتوى عُري – وإضفاء الطابع الجنسي بشكل غير متناسب على المرأة وتغيير مظهرها ، في محاولة لتقليل احتمال إساءة استخدام الأداة ، أكثر مما يحدث بالفعل.
ماكسيميليان جانتزقال أحد كبار الباحثين في مجال السياسات في مؤسسة موزيلا ، إنه يأمل في أن يؤدي دمج الذكاء الاصطناعي الذي يبني الأشياء في تكنولوجيا المستهلك إلى تضخيم تأثيرات هذه الأنظمة “الدفاعية” ، سواء كانت جيدة أو سيئة. ال انتشار مستقر، على سبيل المثال ، تم تغذية مليارات الصور من الإنترنت حتى “تعلمت” ربط كلمات ومفاهيم معينة بصور معينة. تم التلاعب بقوالب إنشاء النص بسهولة لمنعها من إنتاج محتوى يدعو رؤى هجومي أو إنتاج أخبار وهمية.
مايك كوك، وهو عضو في مجموعة الأبحاث المفتوحة Knives and Paintbrushes ، يتفق مع Gahntz عندما يقول أن الذكاء الاصطناعي الإبداعي سيستمر في إثبات كونه قوة رئيسية – ولسوء الحظ ، إشكالية نسبية – من أجل التغيير. لكنه يعتقد أن عام 2023 يجب أن يكون العام الذي “يرتقي فيه الذكاء الاصطناعي الذي يصنع الأشياء أخيرًا إلى مستوى الأموال التي ينطوي عليها الأمر”.لا يكفي تحفيز مجتمع من الخبراء [لإنشاء تقنية جديدة] – لكي تصبح التكنولوجيا جزءًا من حياتنا على المدى الطويل ، يجب إما أن تحقق لشخص ما الكثير من المال أو أن يكون لها تأثير كبير على الحياة اليومية عامة الناس. لذلك أتوقع أننا سنرى دفعة جادة لجعل الذكاء الاصطناعي التوليدي يحقق بالفعل أحد هذين الأمرين ، بنجاح مختلط.
مايك كوك عضو مجموعة الأبحاث المفتوحة Knives and Paintbrushes حول تنبؤاته لاستخدام إبداعات الذكاء الاصطناعي حتى عام 2023
يحاول الفنانون المطالبة بحقوقهم
O الوسام أصدرت مولدًا فنيًا مدمجًا بالذكاء الاصطناعي انتشار مستقر وتعديلها مع الفنون المنشورة من قبل مستخدمي المنصة. قوبل منشئ الفن برفض قوي من مستخدمي DeviantArt السابقين ، الذين انتقدوا افتقار النظام الأساسي للشفافية في استخدام الفن الذي تم تحميله لتدريب النظام.
مبتكرو أشهر الأنظمة – OpenAI e الاستقرار AI – يقولون إنهم اتخذوا خطوات للحد من كمية المحتوى الضار التي تنتجها أنظمتهم. ولكن وفقًا للعديد من الأجيال على وسائل التواصل الاجتماعي ، من الواضح أن هناك الكثير من العمل الذي يتعين القيام به – بالمناسبة.
ماكسيميليان جانتز، يقارن عملية إنشاء الفن عبر الذكاء الاصطناعي بالخلافات المستمرة حول الإشراف على المحتوى على وسائل التواصل الاجتماعي. يوضح الباحث أن مجموعات البيانات تتطلب معالجة نشطة لحل هذه المشكلات ، بما في ذلك المجتمعات التي تميل إلى استهلاك جزء صغير فقط من هذا المحتوى.
OpenAI و Stability AI والقضايا القانونية
الاستقرار AI ، الذي يمول بشكل كبير تطوير Stable Diffusion ، رضخ مؤخرًا للضغط العام من خلال الإشارة إلى أنه سيسمح للفنانين بالانسحاب من مجموعة البيانات المستخدمة لتدريب النموذج. انتشار مستقر في الجيل القادم. من خلال موقع إلكتروني ، سيتمكن أصحاب الحقوق في أعمالهم الفنية من طلب الإلغاء قبل بدء التدريب الذي سيتم تطبيقه على الأدوات.
من ناحية أخرى ، لا تقدم OpenAI آلية الاستبعاد هذه ، مفضلة الشراكة مع منظمات مثل شترستوك لترخيص أجزاء من معارض الصور الخاصة بك. ولكن بالنظر إلى رد الفعل القانوني والدعاية التي تواجهها جنبًا إلى جنب مع Stability AI ، فمن المحتمل أنها مسألة وقت فقط قبل أن تتبع ريادة شقيقتها في السوق.
وبالمعنى القانوني للشيء ، يمكنك أيضًا رؤية بعض الحركة. في الولايات المتحدة الأمريكية Microsoft, GitHub جيثب: و- انظر إليها هنا مرة أخرى – OpenAI يتم مقاضاتهم في دعوى قضائية جماعية تتهمهم بانتهاك قانون حقوق الطبع والنشر بالسماح لـ مساعد طيار، خدمة GitHub التي تقترح بذكاء سطورًا من التعليمات البرمجية ، بطريقة ما – مدفوعة أو مجانية أو غير ذلك – توفر أقسامًا من التعليمات البرمجية المرخصة دون إعطاء ائتمان مناسب.
ربما لتجنب المزيد من التعقيدات القانونية ، أضاف GitHub مؤخرًا إعدادات لمنع الكود العام من الظهور في اقتراحات Copilot ، بالإضافة إلى خطط لتقديم ميزة تشير إلى مصدر اقتراحات التعليمات البرمجية. لكن هذه هي الإجراءات التي لم يتم اختبارها بجدية حتى الآن لبدء العمل بها.
حلول الأنظمة المفتوحة
شهد عام 2022 هيمنة عدد قليل من شركات الذكاء الاصطناعي على المسرح ، وعلى الأخص OpenAI و Stability AI. ولكن قد ينتهي الأمر بالعودة إلى المصدر المفتوح في عام 2023 ، حيث تتجاوز القدرة على إنشاء أنظمة جديدة “مختبرات AI قوية وغنية بالميزات“، كما قلت ماكسيميليان جانتز.
يمكن أن يؤدي نهج المجتمع إلى زيادة التدقيق في الأنظمة أثناء بنائها ونشرها. جانتز يمضي ليقول إنه إذا كانت النماذج مفتوحة وإذا كانت مجموعات البيانات مفتوحة أيضًا ، فإن هذا سيسمح بمزيد من البحث النقدي الذي أشار إلى العديد من العيوب والأضرار المرتبطة بالإنشاء بواسطة الذكاء الاصطناعي ، وغالبًا ما يكون ذلك صعبًا للغاية سلوك.
تتضمن أمثلة الجهود التي تركز على المجتمع نماذج لغوية كبيرة من إليوثير و BigScience، وهو عمل تدعمه شركة Hugging Face الناشئة للذكاء الاصطناعي. الاستقرار تقوم منظمة العفو الدولية بتمويل مجتمعات مختلفة مثل هارموناي e OpenBioML، تركز على تأليف الموسيقى ، بالإضافة إلى كونها مجموعة مجانية من تجارب التكنولوجيا الحيوية.
لا تزال هناك حاجة إلى المال والخبرة لتدريب وتشغيل نماذج ذكاء اصطناعي متطورة ، ولكن الحوسبة اللامركزية يمكن أن تتحدى الخوادم التي تجمع المعلومات بشكل أكثر تقليدية مع تزايد نضج جهود المصادر المفتوحة.
اتخذت BigScience خطوة إلى الأمام في تمكين التنمية اللامركزية مع الإطلاق الأخير لمشروع Petals مفتوح المصدر. ال بتلات يسمح للأشخاص بالمساهمة بقدراتهم الحاسوبية لتشغيل نماذج لغة ذكاء اصطناعي كبيرة تتطلب عادةً وحدة معالجة رسومات أو خادمًا بجودة أعلى من المعتاد.تعتبر النماذج التوليدية الحديثة مكلفة من الناحية الحسابية للتدريب والتشغيل. تشير بعض التقديرات التقريبية إلى أن الإنفاق اليومي لـ ChatGPT يبلغ حوالي 3 ملايين دولار. لجعل هذا قابلاً للتطبيق تجاريًا ويمكن الوصول إليه على نطاق أوسع ، سيكون من المهم معالجة هذا الأمر.
شاندرا بهاغافاتولا ، زميل أول في معهد ألين للذكاء الاصطناعي حول الاستثمار في الطريق المفتوح للذكاء الاصطناعي
شاندرا بهاغافاتولا يشير ، مع ذلك ، إلى أن المختبرات الكبيرة ستستمر في التمتع بمزايا تنافسية ، طالما أن الأساليب والبيانات تظل ملكية خاصة. في مثال حديث ، أصدرت OpenAI ملف نقطة، نموذج يمكنه إنشاء كائنات ثلاثية الأبعاد من موجه نص. ومع ذلك ، على الرغم من أن OpenAI قد قامت بفتح المصدر للنموذج ، إلا أنها لم تكشف عن مصادر بيانات تدريب Point-E أو أصدرت هذه البيانات.أعتقد أن جهود المصادر المفتوحة وجهود اللامركزية جديرة بالاهتمام وتستفيد منها مجموعة واسعة من الباحثين والممارسين والمستخدمين. ومع ذلك ، على الرغم من كونها مفتوحة المصدر ، إلا أن أفضل النماذج لا تزال غير متاحة لعدد كبير من الباحثين والممارسين بسبب قيود مواردهم.
شاندرا تتبع تفكيرها
الخطوات الأولى نحو بعض التنظيم
لوائح مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي يمكن أن تغير طريقة تطوير الشركات ونشر أنظمة الذكاء الاصطناعي في المستقبل. وكذلك هناك المزيد من الجهود المحلية ، مثل قانون التوظيف للذكاء الاصطناعي في مدينة نيويورك ، والذي يتطلب تقنية تعتمد على الخوارزمية والذكاء الاصطناعي للتجنيد أو التوظيف أو الترقية ليتم تدقيقها قبل استخدامها فعليًا.
شاندرا بهاغافاتولا يرى أن هذه اللوائح ضرورية ، لا سيما في ضوء العيوب التقنية الواضحة بشكل متزايد في تقنية الذكاء الاصطناعي للمبدع ، مثل ميلها إلى الإفصاح عن معلومات مضللة محتملة.
شاندرا بهاغافاتولا ، باحثة أولى في معهد ألين للذكاء الاصطناعي تبحث عن حلول للجيل القادم من الذكاء الاصطناعي.
ومع ذلك ، فإن العام المقبل لن يجلب سوى تهديد التنظيم. بهذا المعنى ، يمكننا أن نتوقع المزيد من النقاش حول القواعد والإجراءات القضائية قبل تغريم أي شخص أو توجيه الاتهام إليه – وهذا صحيح. لكن لا يزال بإمكان الشركات التنافس على المناصب في الفئات الأكثر فائدة في القوانين التالية ، مثل فئات المخاطر في قانون الذكاء الاصطناعي.
تقسم القاعدة ، كما هو مكتوب حاليًا ، أنظمة الذكاء الاصطناعي إلى واحدة من أربع فئات للمخاطر ، لكل منها متطلبات ومستويات مختلفة. أنظمة في فئة المخاطر الأعلى ، الذكاء الاصطناعي من “مخاطرة عالية”- على سبيل المثال ، خوارزميات تسجيل الائتمان وتطبيقات الجراحة الروبوتية وغيرها من البيانات الحساسة – تحتاج إلى تلبية بعض المعايير القانونية والأخلاقية والتقنية قبل السماح لها بدخول السوق الأوروبية.
أدنى فئة خطر ، الذكاء الاصطناعي من “الحد الأدنى من المخاطر أو لا يوجد خطر”- على سبيل المثال ، عوامل تصفية البريد العشوائي وألعاب الفيديو التي تدعم الذكاء الاصطناعي وغيرها من الألعاب التي لا تحتوي على مثل هذه البيانات الحساسة – تفرض فقط التزامات الشفافية ، مثل توعية المستخدمين بأنهم يتفاعلون مع نظام ذكاء اصطناعي.
نظام التشغيل كيزأعربت طالبة دكتوراه في جامعة واشنطن ، عن قلقها من أن الشركات تسعى إلى أدنى مستوى من المخاطر لتقليل مسؤوليتها الخاصة ورؤيتها للمنظمين. “بغض النظر عن هذا القلق ، فإن مسألة تنظيم الذكاء الاصطناعي هذه هي بالفعل أكثر الأشياء إيجابية التي أراها على الطاولة. لم أر الكثير خارج الكونغرس“، انها تقول Os.
وماذا عن الاقتصاد؟
يجادل Maximilian Gahntz بأنه حتى لو كان نظام الذكاء الاصطناعي يعمل جيدًا بما يكفي لمعظم الناس ، فإنه يعمل بشكل عميق مضر بالنسبة للآخرين ، لا يزال هناك الكثير من العمل الشاق الذي يتعين القيام به قبل أن تتيحه الشركة فعليًا على نطاق واسع.
من غير الواضح ما إذا كانت الشركات ستقتنع بهذه الحجة العام المقبل – ومن يدري لسنوات قادمة – أساسًا لأن المستثمرين يبدون متحمسين لوضع أموالهم فوق أي ذكاء اصطناعي واعد.
وسط الجدل حول الانتشار المستقر ، أثار الذكاء الاصطناعي الاستقرار 101 مليون دولار في تقييم أكثر من 1 مليار دولار من الرعاة، بما في ذلك بعض الأسماء المعروفة في المجال مثل معطف e شركاء مشروع Lightspeed. تم الإبلاغ أيضًا عن تقييم OpenAI في 20 مليار دولار أمريكي من خلال الدخول في مفاوضات متقدمة لجمع المزيد من الأموال من Microsoft – مع تذكر ذلك في عام 2019 استثمرت Microsoft مليار دولار في OpenAI في عام 1.