الذكاء الاصطناعي التوليدي يزرع بذور الشك في العلم الحقيقي
تعد النماذج اللغوية الضخمة مثل ChatGPT مدعاة للاستحسان. روبوتات الدردشة هذه، التي يعتمد كثير منها على ما يسمى الذكاء الاصطناعي التوليفي، يتم تدريبها للرد على أسئلة المستخدم عن طريق جمع معلومات ذات صلة عبر الإنترنت وإنشاء إجابات متماسكة، وإعداد مقالات طلابية مقنعة، ووثائق قانونية موثوقة، وقصص إخبارية قابلة للتصديق.
لكن لأن البيانات المتاحة لعامة الناس تحتوي على معلومات مضللة وأخرى مغلوطة، فقد تكون بعض النصوص المنشأة آليا غير دقيقة أو صحيحة. أدى ذلك إلى التهافت من أجل تطوير أدوات تحدد ما إذا كان النص قد تمت صياغته بواسطة إنسان أم بواسطة آلة. في الوقت نفسه يكافح العلم للتكيف مع هذه الحقبة الجديدة، حيث تم بث نقاشات حية حول ما إذا كان ينبغي السماح لبرامج الدردشة الآلية بكتابة أوراق علمية، أو حتى إنشاء فرضيات جديدة.
أصبحت أهمية التمييز بين الذكاء الاصطناعي والذكاء البشري تتزايد يوما بعد يوم. كشف محللون في بنك يو بي إس هذا الشهر أن تطبيق تشات جي بي تي هو الأسرع نموا على الإنترنت على الإطلاق، حيث استقطب 100 مليون مستخدم نشط في كانون الثاني (يناير). وقد أقرت بعض القطاعات أنه لا جدوى من تفادي مسألة لا مفر منها، قال برنامج البكالوريا الدولية “إنترناشونال باكالورييت” الإثنين، إن التلاميذ سيسمح لهم باستخدام تشات جي بي تي لكتابة المقالات، بشرط إضافته للمراجع.
ومن باب الإنصاف، كان منشئ هذه التكنولوجيا واضحا بشأن حدودها. فقد حذر سام ألتمان، الرئيس التنفيذي لشركة أوبن أيه آي، في كانون الأول (ديسمبر) من أن تشات جي بي تي “جيد في بعض الأمور بما فيه الكفاية بحيث يترك انطباعا عن عظمته (…) لدينا كثير من العمل الذي يتعين إنجازه حول المتانة والمصداقية”. وتعكف شركته حاليا على تطوير علامة مائية مشفرة توضع على مخرجاتها، وهي عبارة عن تسلسل سري يمكن قراءته آليا يتكون من علامات الترقيم والتهجئة وترتيب الكلمات، ويعمل أيضا على تحسين آلية تصنيف، “مصنف”، لمعرفة الفرق بين النص الاصطناعي والنص الذي تم إنشاؤه بواسطة الإنسان، وذلك باستخدام أمثلة لكليهما يتم تدريبه عليها.
إريك ميتشل، طالب دراسات عليا في جامعة ستانفورد، يعتقد أن المصنف يحتاج إلى كثير من بيانات التدريب. توصل مع زملائه لتصميم برنامج ديتيكت جي بي تي، وهو نهج “لا يحتاج إلى تدريب” للكشف عن الفرق، ما يعني أن هذه الطريقة لا تتطلب تعليما مسبقا. بدلا من ذلك، تعمل هذه الطريقة على قلب روبوت المحادثة على نفسه، من أجل التعرف على مخرجاته الخاصة به.
يعمل البرنامج على النحو التالي، برنامج ديتيكت جي بي تي يسأل روبوت الدردشة عن مدى إعجابه بعينة نصية ما، حيث يكون “الإعجاب” طريقة مختصرة لمدى تشابه العينة مع إبداعاته. ثم يقوم ديتيكت جي بي تي بخطوة أخرى – “يربك” النص، عن طريق تغيير الصياغة قليلا. الفرضية هنا هي أن روبوت المحادثة يكون أكثر تنوعا في “إبداء الإعجاب” بالنص المعدل الذي تم إنشاؤه بواسطة الإنسان، مقارنة بنص الآلة المعدل. ادعى الباحثون في الاختبارات التي جرت مبكرا أن الطريقة ميزت بين ما ألفه الإنسان وما ألفته الآلة بشكل صحيح بنسبة 95 في المائة من الحالات.
لكن هناك محاذير، النتائج لم تخضع بعد لمراجعة الأقران. فعلى الرغم من أن الطريقة أفضل من التخمين العشوائي، إلا أنها لم تعمل بشكل موثوق به في كل نماذج الذكاء الاصطناعي التوليدي. يمكن خداع ديتيكت جي بي تي بإجراء تعديلات بشرية على النص الاصطناعي.
ماذا يعني كل هذا بالنسبة للعلم؟ إن النشر العلمي هو شريان الحياة للبحث، وطرح الأفكار والفرضيات والحجج والأدلة في القانون العلمي العالمي. سارع بعضهم إلى الاعتماد على تشات جي بي تي كباحث مساعد، مع ظهور عدد قليل من الأوراق البحثية المثيرة للجدل التي أدرجت الذكاء الاصطناعي بوصفه مؤلفا مشاركا فيها.
حتى شركة ميتا أطلقت مولد نص مختصا بالعلم يسمى جالاكتيكا. لكن تم سحبه بعد ثلاثة أيام. من بين الأخطاء الفاحشة التي أنتجها وجود تاريخ خيالي للدببة التي تسافر في الفضاء.
البروفيسور مايكل بلاك، من معهد ماكس بلانك للأنظمة الذكية في توبنجن، نشر تغريدة في ذلك الوقت جاء فيها أنه “منزعج” من إجابات جالاكتيكا على عدة استفسارات حول مجال أبحاثه، بما في ذلك نسبة أوراق مزيفة إلى باحثين حقيقيين. قال، “في جميع الحالات، كان (جالاكتيكا) مخطئا أو منحازا، لكنه كان يبدو صحيحا وموثوقا. أعتقد أنه خطير”.
يأتي الخطر من تسرب النص المعقول إلى المقالات العلمية الحقيقية، ذلك من خلال ملء الأدبيات باقتباسات مزيفة وتشويه النظريات العلمية للأبد. تحظر المجلة العلمية، سايانس، الآن إنشاء نصوص توليفية، لكن مجلة نيتشر تسمح باستخدامها، بشرط أن يتم الإفصاح عنها، غير أنها تحظر اعتمادها كمؤلف مشارك.
لكن مرة أخرى، معظم الناس لا يرجعون إلى النشرات العلمية المتقدمة للاهتداء بها في تفكيرهم العلمي. وفي حالة وجود ميل للمخادعين لهذه الدرجة، يمكن لبرامج الدردشة، عند الطلب، أن تفيض بسيل من العلوم الزائفة المليئة بالاقتباسات حول سبب عدم نجاح اللقاحات، أو لماذا يعد الاحتباس الحراري خديعة. يمكن بعد ذلك أن يبتلع الذكاء الاصطناعي التوليدي المستقبلي هذا المحتوى المضلل والمنشور على الإنترنت، لإنتاج أكاذيب جديدة منبثقة عنه تلوث الخطاب العام.
لا بد أن تجار الشك يفركون أيديهم الآن استعدادا لذلك.