كيف سيؤثر فينا عصر الذكاء الاصطناعي الجديد؟
ريتشارد ووترز
منذ ما يزيد قليلا على عشرة أعوام، حقق ثلاثة باحثين في الذكاء الاصطناعي اكتشافا غير هذا المجال إلى الأبد.
تعرف نظام “أليكس نت”، الذي تم تدريبه على 1.2 مليون صورة مأخوذة من جميع أنحاء شبكة الإنترنت، على أشياء مختلفة مثل سفينة حاويات ونمر، بدقة أكبر بكثير من قدرة أجهزة الحاسوب سابقا.
هذا الإنجاز ساعد المطورين أليكس كريجفسكي، وإيليا سوتسكيفر وجيفري هينتون على الفوز بمسابقة سنوية غامضة تسمى إميج نت. كما أوضح هذا الإنجاز إمكانات التعلم الآلي وأطلق سباقا في عالم التكنولوجيا لإدخال الذكاء الاصطناعي في الاتجاه السائد.
منذ ذلك الحين، بدأ عصر الذكاء الاصطناعي في الحوسبة يتشكل إلى حد كبير خلف الكواليس. تم استخدام التعلم الآلي، وهو تكنولوجيا أساسية تتضمن تعلم أجهزة الحاسوب من البيانات، على نطاق واسع في وظائف مثل تحديد الاحتيال في بطاقات الائتمان وجعل المحتوى والإعلان عبر الإنترنت أكثر صلة. إذا كانت الروبوتات قد بدأت بشغل جميع الوظائف، فهذا يحدث بعيدا عن الأنظار إلى حد كبير.
أو على الأقل، حتى الآن. أحدث اكتشاف آخر في الذكاء الاصطناعي ثورة في عالم التكنولوجيا. هذه المرة، تعمل الآلات على مرأى من الجميع – ويمكن أن تكون في النهاية جاهزة لتحقيق الخطر المتمثل في الحلول محل ملايين الوظائف.
“تشات جي بي تي”، وهو نظام للإجابة عن الاستفسارات وإنشاء النصوص تم إصداره في نهاية تشرين الثاني (نوفمبر)، سطا على الوعي العام بطريقة نادرا ما ترى خارج نطاق الخيال العلمي. نظرا إلى أنه تم إنشاؤه من قبل شركة الأبحاث، أوبن إيه آي، ومقرها سان فرانسيسكو، فإنه الأكثر وضوحا في موجة جديدة تسمى بأنظمة الذكاء الاصطناعي “المولدة” التي يمكنها إنتاج محتوى حسب الطلب.
إذا قمت بكتابة استعلام في نظام شات جي بي تي، فسيستجيب بفقرة قصيرة موضحا الإجابة وبعض الحقائق. إذا سألته عمن فاز في الانتخابات الرئاسية لـ2020، مثلا، فسيحدد النتائج ويخبرك متى تم تنصيب جو بايدن.
باعتباره سهل الاستخدام وقادرا على التوصل في لحظة إلى نتائج تبدو وكأن إنسانا أنتجها، يعد نظام تشات جي بي تي بدفع الذكاء الاصطناعي إلى الحياة اليومية. أكدت الأخبار التي تفيد بأن شركة مايكروسوفت التي استثمرت مليارات الدولارات في شركة أوبن إيه أي – التي شارك في تأسيسها سوتسكيفر، منشئ نظام أليكس نت – الدور المركزي الذي ستلعبه هذه التكنولوجيا في المرحلة التالية من ثورة الذكاء الاصطناعي. يعد نظام تشات جي بي تي الأحدث في سلسلة من العروض العامة الدرامية بشكل متزايد.
صعق عالم التكنولوجيا عندما كشفت “أوبن إيه آي” عن نظام آخر وهو نظام الكتابة الأوتوماتيكي جي بي تي-3 في منتصف 2020. وتبع ذلك ما يسمى بنماذج اللغات الكبرى من الشركات الأخرى، قبل أن يتفرع هذا المجال العام الماضي إلى توليد الصور باستخدام أنظمة مثل دال-إي 2 من “أوبن إيه آي”، ونظام ستيبل دفيوجين مفتوح المصدر من “ستيبلتي إيه آي”، و”ميدجورني”.
أدت هذه الاكتشافات إلى اندلاع صراع لإيجاد تطبيقات جديدة لهذه التكنولوجيا. يسيمها ألكسندر وانج، الرئيس التنفيذي لمنصة البيانات سكيل إيه آي، “بالانفجار المبدئي الخاص بهندسة البرمجيات”، وقد قارنها بلحظة ما قبل التاريخ عندما بدأت الحياة الحيوانية الحديثة في الازدهار.
إذا كانت أجهزة الحاسوب قادرة على كتابة وإنشاء الصور، فهل هناك أي شيء، عند تدريبها على البيانات الصحيحة، لا يمكنها إنتاجه؟ عرضت شركة جوجل بالفعل نظامين تجريبيين يمكنهما إنشاء فيديو من توجيه بسيط، إضافة إلى نظام يمكنه حل المسائل الرياضية. طبقت شركات مثل ستيبلتي إيه أي هذا الأسلوب على الموسيقى.
كما يمكن استخدام التكنولوجيا لاقتراح أسطر جديدة من الرموز، أو حتى برامج كاملة، لمطوري البرامج. وتحلم شركات الأدوية باستخدامها لتوليد أفكار عن عقاقير جديدة بطريقة هادفة بشكل أكبر. قالت شركة أبساي للتكنولوجيا الحيوية هذا الشهر إنها صممت أجساما مضادة جديدة باستخدام الذكاء الاصطناعي، وهو أمر قالت إنه يمكن أن يختصر أكثر من عامين من نحو أربعة أعوام لإدخال عقار في التجارب السريرية.
لكن في حين تتسابق صناعة التكنولوجيا لفرض هذه التكنولوجيا الجديدة على جمهور عالمي، فمن المحتمل أن تكون هناك تأثيرات اجتماعية بعيدة المدى يجب أخذها بعين الاعتبار.
اطلب من نظام تشات جي بي تي كتابة مقال عن معركة واترلو بأسلوب طفل يبلغ من العمر 12 عاما، مثلا، وستحصل على واجب منزلي لطالب في عمر المدرسة يصل عند الطلب. والأخطر من ذلك، أنه يمكن استخدام الذكاء الاصطناعي بشكل متعمد لتوليد كميات كبيرة من المعلومات المضللة، ويمكنه أتمتة عدد كبير من الوظائف التي تتخطى أنواع الأعمال الإبداعية والتي تعد الأكثر تعرضا للخطر.
يقول إريك بويد، رئيس منصات الذكاء الاصطناعي في شركة مايكروسوفت، “ستغير هذه النماذج الطريقة التي يتفاعل بها الناس مع أجهزة الحاسوب”. إذ إنها “ستفهم نيتك بطريقة لم تكن ممكنة من قبل وتترجمها إلى إجراءات داخل الحاسوب”. ويضيف أنه نتيجة لذلك ستصبح هذه تكنولوجيا أساسية “تلامس كل شيء موجود تقريبا”.
مشكلة المصداقية
يقول المدافعون عن الذكاء الاصطناعي التوليدي إن الأنظمة يمكن أن تجعل الموظفين أكثر إنتاجية وإبداعا. ووفقا للشركة، فإن نظاما لتوليد الرموز من قسم جيت هب التابع لشركة مايكروسوفت ينتج بالفعل 40 في المائة من التعليمات البرمجية التي ينتجها مطورو البرامج الذين يستخدمون النظام.
يقول جيمس مانيكا، نائب الرئيس الأول في “جوجل” الذي ينظر في تأثير التكنولوجيا في المجتمع، إن مخرجات هذه الأنظمة يمكن أن تكون بمنزلة “فتح للعقل” لأي شخص يحتاج إلى ابتكار أفكار جديدة في عمله. بالنظر إلى أنها مدمجة في أدوات البرامج اليومية، فيمكنها اقتراح أفكار، أو التحقق من العمل أو حتى إنتاج كميات كبيرة من المحتوى.
لكن على الرغم من سهولة استخدامه وقدرته على إحداث ثورة في أجزاء كبيرة من المشهد التكنولوجي، فإن الذكاء الاصطناعي التوليدي يمثل تحديات عميقة للشركات التي تقوم بإنشائه وتحاول تطبيقه في الممارسة العملية، وكذلك لكثير من الأشخاص الذين من المحتمل أن يصادفونه قبل أن يمضي وقت طويل في حياتهم المهنية أو الشخصية.
في المقام الأول هناك مشكلة المصداقية. فقد تتوصل أجهزة الحاسوب إلى إجابات منطقية، لكن من المستحيل الوثوق تماما بأي شيء تقوله. إنها تقدم أفضل تخمين لديها بناء على الافتراضات الاحتمالية المستنيرة عبر دراسة جبال من البيانات، مع عدم وجود فهم حقيقي لما تنتجه.
تقول ميلاني ميتشل، الأستاذة في معهد سانتا في، “ليس لديها أي ذاكرة خارج محادثة واحدة، ولا يمكنها التعرف عليك وليس لديها أي فكرة عن معنى الكلمات في العالم الحقيقي”. هي فقط تقدم إجابات تبدو مقنعة استجابة لأي توجيه، فإنها ذكية لكنها بلا عقل، مع عدم وجود ضمان بأن ناتجها أكثر من مجرد هلوسة رقمية.
كانت هناك بالفعل عروض توضيحية بيانية لكيفية إنتاج هذه التكنولوجيا لنتائج تبدو معقولة لكنها غير جديرة بالثقة.
في أواخر العام الماضي، عرضت “ميتا”، الشركة الأم لفيسبوك، نظاما توليديا يسمى جالاكتيكا تم تدريبه على الأبحاث الأكاديمية. سرعان ما تم اكتشاف أن النظام يقدم بحثا يبدو معقولا لكنه مزيف عند الطلب، ما دفع “فيسبوك” إلى سحب النظام بعد أيام.
يقر منشئو نظام تشات جي بي تي بأوجه القصور. إذ ينتج النظام أحيانا إجابات “غير منطقية” لأنه عندما يتعلق الأمر بتدريب الذكاء الاصطناعي، “فلا يوجد حاليا مصدر للحقيقة”، على حد قول الشركة. أضافت “أوبن إيه آي” أن استخدام البشر لتدريبه بشكل مباشر، بدلا من جعله يتعلم بنفسه – طريقة تعرف باسم التعلم الخاضع للإشراف – لم تنجح لأن النظام في الأغلب ما كان أفضل من معلميه البشر في إيجاد “الإجابة المثالية”.
يتمثل أحد الحلول المحتملة في تقديم نتائج الأنظمة التوليدية للتأكد من صحتها قبل إصدارها. يقول مانيكا إن نظام لا إم دي إيه التجريبي من “جوجل”، الذي تم إعلانه في 2021، يأتي بنحو 20 استجابة مختلفة لكل طلب، ثم يقوم بتقييم كل منها من أجل “السلامة، والسمية والمنطقية. نطلب إجراء بحث لنرى، هل هذا حقيقي؟”.
لكن أي نظام يعتمد على البشر للتحقق من صحة ناتج الذكاء الاصطناعي يثير مشكلاته الخاصة، كما يقول بيرسي ليانج، أستاذ مشارك في علوم الحاسوب في جامعة ستانفورد. ويقول إنه قد يعلم الذكاء الاصطناعي كيفية “توليد أشياء مضللة لكن قابلة للتصديق تخدع البشر بالفعل. حقيقة أن الحقيقة غامضة للغاية، وأن البشر ليسوا بارعين حقا فيها، أمر مثير للقلق”.
وفقا لمناصري هذه التكنولوجيا، فإن هناك طرقا عملية لاستخدامها دون محاولة الإجابة عن هذه الأسئلة الفلسفية العميقة. مثل محرك البحث على الإنترنت، الذي يمكنه تقديم معلومات خاطئة إضافة إلى نتائج مفيدة، سيتوصل الأشخاص إلى كيفية تحقيق أقصى استفادة من الأنظمة، كما يقول أورين إيتزيوني، مستشار وعضو مجلس إدارة في إيه 12، معهد أبحاث الذكاء الاصطناعي الذي أنشأه بول ألين، المؤسس المشارك لشركة مايكروسوفت.
يقول، “أعتقد أن المستهلكين سيتعلمون ببساطة استخدام هذه الأدوات لمصلحتهم. آمل فقط ألا يتضمن ذلك غش الأطفال في المدرسة”.
جعل البشر يخمنون مدى صحة الآلات قد لا يكون الحل دائما. أظهر استخدام أنظمة التعلم الآلي في البيئات المهنية بالفعل أن الناس “يفرطون في الثقة بالتنبؤات التي تأتي من أنظمة ونماذج الذكاء الاصطناعي”، كما تقول ريبيكا فينلاي، الرئيسة التنفيذية لشركة بارتنرشب إيه آي، مجموعة للتكنولوجيا الصناعية التي تدرس استخدامات الذكاء الاصطناعي.
تضيف أن المشكلة تكمن في أن الناس يميلون إلى “إضفاء جوانب مختلفة مما يعنيه أن تكون إنسانا عندما نتفاعل مع هذه النماذج”، ما يعني أنهم ينسون أن الأنظمة ليس لها “فهم” حقيقي لما يقولونه.
تفتح مشكلات الثقة والمصداقية هذه احتمالات سوء الاستخدام من قبل الأشرار. بالنسبة إلى أي شخص يحاول التضليل عمدا، يمكن أن تصبح الآلات مصانع معلومات مضللة، إذ إنها قادرة على إنتاج كميات كبيرة من المحتوى لإغراق وسائل التواصل الاجتماعي والقنوات الأخرى. بعد تدريبها على الأمثلة الصحيحة، فقد تقلد أيضا أسلوب الكتابة أو الصوت المنطوق لأشخاص معينين. يقول إتزيوني، “سيكون إنشاء محتوى مزيف أمرا سهلا للغاية ورخيصا وعلى نطاق واسع”.
هذه مشكلة متأصلة في الذكاء الاصطناعي عموما، كما يقول عماد مشتاق، رئيس “ستيبلتي إيه آي”. يقول، “إنها أداة يمكن للناس استخدامها بشكل أدبي أو غير أدبي، قانوني أو غير قانوني، أخلاقي أو غير أخلاقي. الأشرار لديهم بالفعل ذكاء اصطناعي متقدم”. ويزعم أن الدفاع الوحيد يكمن في نشر التكنولوجيا على أوسع نطاق ممكن وجعلها متوافرة للجميع.
هذا الحل مثير للجدل بين خبراء الذكاء الاصطناعي، الذين يطالب كثير منهم الحد من الوصول إلى التكنولوجيا الأساسية. يقول بويد من “مايكروسوفت” إن الشركة “تعمل مع عملائنا لفهم حالات الاستخدام الخاصة بهم للتأكد من أن الذكاء الاصطناعي بالفعل استخدام مسؤول لهذا السيناريو”.
يضيف أن شركة البرمجيات تعمل أيضا على منع الناس من “محاولة خداع النموذج والقيام بشيء لا نرغب حقا في رؤيته”. توفر “مايكروسوفت” لعملائها أدوات لفحص مخرجات أنظمة الذكاء الاصطناعي بحثا عن محتوى مسيء أو مصطلحات معينة يريدون حظرها. لقد تعلمت بالطريقة الصعبة أنه يمكن أن تصبح روبوتات المحادثة شريرة، إذ كان لا بد من سحب الروبوت تاي الخاص بها على عجل في 2016 بعد التفوه بمصطلحات عنصرية وردود أخرى تحريضية.
إلى حد ما، قد تساعد التكنولوجيا على ضبط سوء الاستخدام لأنظمة الذكاء الاصطناعي الجديدة. مثلا، يقول مانيكا إن “جوجل” طورت نظاما لغويا يمكنه الكشف بدقة تصل إلى 99 في المائة عن الكتابة التي تم إنتاجها آليا. ويضيف أن أيا من نماذجها البحثية لن يولد صورة لشخص حقيقي، وهو ما يحد من إمكانية إنشاء ما يسمى بالتزييف العميق.
الوظائف المهددة
أدى صعود الذكاء الاصطناعي التوليدي أيضا إلى بدء مرحلة جديدة في الجدل الذي كان يدور لفترة طويلة حول تأثير الذكاء الاصطناعي والأتمتة في الوظائف. هل ستحل الآلات محل العمال أم أنها ستجعل العمال الحاليين أكثر إنتاجية وتزيد من إحساسهم بالإنجاز من خلال تولي الأمور الروتينية في الوظيفة؟
من الواضح أكثر من غيره أن الوظائف التي تنطوي على عنصر جوهري كالتصميم أو الكتابة معرضة للخطر. فعندما ظهر نموذج ستايبل ديفيوجين في أواخر الصيف الماضي، كانت قدرته على التمثيل الصوري الفوري لمطابقة أي طلب قد أدت إلى اضطرابات عبر عالم الفن التجاري والتصميم.
كما بدأت بعض شركات التكنولوجيا محاولة تطبيق هذه التكنولوجيا على الإعلانات، ومنها شركة سكايل أيه آي، التي دربت نموذجا للذكاء الاصطناعي على الصور الإعلانية. إذ إن ذلك قد يتيح إنتاج صور بهيئة احترافية من المنتجات التي يبيعها “تجار التجزئة الصغار والعلامات التجارية التي تعد تصوير بضائعها باهظ التكلفة”، كما يقول وانج.
يمثل هذا تهديدا على احتمال سبل العيش لأي شخص يقوم بإنشاء المحتوى من أي نوع. كما يقول مستاق، “إنها تحدث ثورة في صناعة الإعلام بأكملها. لقد اعتقد كل مزود محتوى رئيس في العالم أنهم بحاجة إلى استراتيجية للميتافيرس، لكنهم جميعا بحاجة إلى استراتيجية توليدية تستخدم الذكاء الاصطناعي لتوليد مواد إعلامية”.
وفقا لبعض الأشخاص المعرضين لخطر خسارة وظائفهم، فإنهم يواجهون ما هو أكثر من مجرد خسران راتبهم. فقد صعق المغني وكاتب الأغاني نك كايف عندما عرضت عليه أغان كتبها نموذج تشات جي بي تي لتبدو وكأنها من أعماله. كتب على الإنترنت، “إن الأغاني تولد من رحم المعاناة، وأعني بذلك أنها جبلت على الصراع الإنساني الداخلي المعقد من أجل الابتكار وكذلك، على حد علمي، فإن الخوارزميات خالية من الشعور. إن البيانات لا تشعر بالمعاناة”.
غير أن المتفائلين بالتكنولوجيا يعتقدون أنها تستطيع أن تعزز الإبداع البشري لا أن تحل محله. حيث يقول ليانج من جامعة ستانفورد إن المصمم يمكن أن يصبح “طموحا أكثر” عندما يتسلح بنموذج يعمل بالذكاء الاصطناعي لتوليد الصور. “بدلا من إنشاء صورة واحدة فقط، يمكنك إنشاء مقاطع فيديو كاملة أو مجموعات جديدة كاملة”.
أما نظام حقوق التأليف، فقد يلعب في نهاية المطاف دورا مهما. إذ تدعي الشركات التي تطبق التكنولوجيا أنها حرة في تدريب أنظمتها على جميع البيانات المتاحة وذلك بفضل “الاستخدام العادل”، وهو استثناء قانوني في الولايات المتحدة يسمح بالاستخدام المحدود للمواد المحمية بحقوق الطبع والنشر.
لكن الآخرين يختلفون معها في ذلك. ففي الإجراءات القانونية الأولى للطعن في الاستخدام المسرف لشركات الذكاء الاصطناعي للصور المحمية بحقوق الطبع والنشر لتدريب أنظمتها، بدأت شركة جيتي إميجيز مع ثلاثة فنانين آخرين الأسبوع الماضي إجراءات في الولايات المتحدة والمملكة المتحدة ضد “ستايبيليتي أيه آي” وشركات أخرى.
ووفقا لمحام يمثل شركتي ذكاء اصطناعي، فقد تهيأ الجميع في هذا المجال للدعاوى القضائية التي لا مفر منها التي ستخط القوانين الأساسية. إذ قد تصبح المعركة حول دور البيانات في تدريب الذكاء الاصطناعي مهمة لصناعة التكنولوجيا مثل حروب براءات الاختراع التي دارت في بداية عصر الهواتف الذكية.
في النهاية، سيتطلب الأمر من المحاكم تحديد الشروط لعصر الذكاء الاصطناعي الجديد – أو حتى المشرعين، إذا قرروا أن التكنولوجيا تخرق الافتراضات القديمة التي يستند إليها قانون حقوق النشر الحالي.
حتى ذلك الحين، بينما تتسابق أجهزة الحاسوب لامتصاص مزيد من البيانات حول العالم، ستبقى الفترة الزمنية الراهنة بلا قيود في عالم الذكاء الاصطناعي التوليدي.