إلى أين يمضي بنا الذكاء الاصطناعي؟

13

جون ثورنهيل 

يستمتع كتاب الخيال العلمي باستكشاف أحد أحلك مخاوف البشرية، أن “تستيقظ” الآلات وتتعدى علينا. لكن يبدو أن أحد مهندسي “جوجل” يخلط بين الخيال والحقيقة، من خلال الادعاء بأن نموذج إنشاء اللغة الخاص بشركة جوجل قد يكون واعيا بالفعل.
في منشور على منصة ميديوم، نشر بليك ليموين سلسلة من التبادلات التي أجراها مع لامدا LaMDA، نموذج اللغة من “جوجل” لتطبيقات الحوار الذي يساعد على تعزيز محرك البحث وروبوتات الدردشة التابعة للشركة. في ردوده المعقولة بشكل غير معقول، عبر لامدا عن وجهات نظر قوية حول تراجع الحقوق، وحول الشخصية، وخوفه من أن يتم إغلاقه. قال ليموين لصحيفة “واشنطن بوست”، “لو لم أكن أعرف بالضبط ما هو، وهو برنامج الكمبيوتر هذا الذي أنشأناه أخيرا، كنت سأعتقد أنه طفل في السابعة أو الثامنة من العمر يعرف الفيزياء”.
رفضت “جوجل” مزاعم ليموين بأن لامدا لديه أي مشاعر ووضعته في إجازة إدارية. كما عبر عديد من الباحثين البارزين في مجال الذكاء الاصطناعي عن سخريتهم من آرائه وازدرائهم لها. قال جاري ماركوس، رائد أعمال ومؤلف في مجال الذكاء الاصطناعي “إنه محض هراء”. لقد كانت هذه الادعاءات مجرد مثال آخر على وهم الأطياف، وهو الميل إلى قراءة صورة ذات مغزى في نمط عشوائي، كرؤية وجه الأم تيريزا في كعكة القرفة.
يمكن للفلاسفة وباحثي الذكاء الاصطناعي أن يناقشوا بسعادة الطبيعة الدقيقة للذكاء والمشاعر والوعي إلى الأبد. قليلون يستبعدون احتمال أن تكتسب أجهزة الكمبيوتر يوما ما القدرة على الإحساس. ولا أحد تقريبا يعتقد أنها فعلت ذلك حتى الآن.
لكن يجدر النظر في المخاوف التي أثارها ليموين وباحثو “جوجل” الآخرون الذين تم طردهم من الشركة العام الماضي. فهل من المقبول أن تكون للشركات الخاصة سيطرة حصرية على هذه الأدوات التكنولوجية القوية، كيف يمكننا ضمان توافق مخرجات هذه النماذج مع الأهداف البشرية؟ ويكمن الخطر في أنها بدلا من تضخم الإبداع البشري، فإنها قد تضخم الغباء البشري.
لامدا واحد من عائلة من النماذج اللغوية الكبيرة التي تدفع الآن حدود الذكاء الاصطناعي. فمنذ عامين، أذهلت شركة أوبن إيه آي، وهي شركة أبحاث مقرها سان فرانسيسكو، عالم الذكاء الاصطناعي من خلال إطلاق جي بي تي-3، وهو نوع من وظيفة الإكمال التلقائي ذات الشحن التوربيني، تولد نصا أصيلا بشكل مثير للأعصاب. وطورت الشركة منذ ذلك الحين نموذجا مشابها يعرف باسم كوديكس، لإنشاء برمجيات الترميز للكمبيوترات. كما أصدرت أيضا دال-إي، الذي يمكنه تحويل النص إلى صور. اكتب “كرسي بذراعين على شكل أفوكادو”، وسينتج صورا متعددة لكراس خضراء على شكل حبة أفوكادو. أمر مروع لكنه أنيق.
تعمل هذه النماذج من خلال تطبيق قوة حوسبة هائلة على كميات ضخمة من النصوص والصور على الإنترنت والتعرف على الأنماط الإحصائية وتجديدها. وبذلك، تظهر كفاءتها لكن دون أي فهم. يقول مايكل وولدريدج، أستاذ علوم الكمبيوتر في جامعة أكسفورد “إن هذه النماذج تتمتع بقدرات مدهشة. إنها لا تفهم العالم وهي منفصلة تماما عنه”.
اترك هذه النماذج تعمل لمدة ثلاثة أسابيع بينما تذهب بعيدا في عطلة، ولن يكون لديها أي إحساس بحدوث أي شيء في العالم عند عودتك، كما يقول.
القلق الأكثر إلحاحا هو أنها يمكن أن تنتج نتائج منحرفة عن غير قصد وتكون عرضة للإساءة. حتى الآن، كانت الشركات التي تقوم بتطويرها حذرة في كيفية استخدامها. نشرت “جوجل” نفسها بحثا يستكشف تحديات التحيز غير العادل والافتقار إلى أسس واقعية في نماذج اللغة الكبيرة. ونشرت شركة أوبن إيه آي هذا الشهر أفضل ممارساتها لاستخدام هذه النماذج ودعت خبراء خارجيين لتحديها.
العيوب خطيرة وواضحة. فقد ابتليت وسائل التواصل الاجتماعي بالفعل من قبل المتصيدين البشريين الذين يخترعون قصصا جديدة كاذبة وخدعا وشائعات. تخيل ما يمكن أن يفعله نموذج قوي للغاية لتوليد النص في الأيدي الخطأ. تقول شانون فالور، مديرة مركز تكنومورال فيوتشرز في جامعة إدنبرة “يتعين على البشر أن يأكلوا ويناموا. الآلات لا تفعل ذلك. ويمكن استخدامها لإنشاء هذا المحتوى تلقائيا وعلى نطاق واسع. ينبغي أن يزعجنا هذا بشدة”.
تضيف فالور أن “الطرق التقليدية لتقييد التكنولوجيا التي يحتمل أن تكون خطرة تتمثل في قصر استخدامها على المجالات الآمنة ومحاسبة المستخدمين على أي أضرار يتسببون فيها”، لكنها تجادل بأنه “لا ينبغي فقط البحث عن الحلول الفنية أو الإدارية، بل أيضا الاستثمار في إنشاء مستودعات أكبر للذكاء البشري”.
هذا يعني أننا يجب أن نخصص مزيدا من الأموال والموارد لإنشاء هيئات بحثية مستقلة ذات خبرة وأقسام جامعية يمكنها اختبار هذه النماذج ومنافستها. ربما يمكن للامدا المساعدة على كتابة طلب التمويل.

اترك رد

Your email address will not be published.