المؤسسة الإعلامية في عُهدة “الذكاء الاصطناعي”!
د. ياسر عبدالعزيز
في شهر أبريل من العام الماضي، كانت الأنباء تتوالى عن التقدّم المُذهل في آليات “الذكاء الاصطناعي“، وقدراتها المتصاعدة على أداء مهمة الصحافي والمذيع المُحترفين، وبالتالي تهديد فرص كل منهما في العمل.
وتجاوبًا مع ذلك، حاولت معرفة مدى جدّيّة هذه التوقعات، عبر اختبار قدرة “ChatGPT تشات جي بي تي” على إنتاج نصوص صحافية صالحة للنشر وفق المعايير التي أعلمها عن قواعد العمل الصحافي ومبادئه التحريرية، وعندما فعلت ذلك توصلت إلى نتيجة محددة مفادها أنه بوسع “الذكاء الاصطناعي” أن يساعد الصحافيين ومؤسسات صناعة المحتوى في عملها بشكل يمكن أن يغيّر أساليب عمل الصناعة، ضمن مساهمة محفوفة بمثالب كثيرة، ستظل تسمح للصحافيين البشريين بالبقاء الفاعل في سوق العمل.
إلا أن استطلاعات رأي عديدة أظهرت لاحقًا توافقًا بين كثير من الخبراء على أن تلك الآليات الجديدة ستغيّر طبيعة المحتوى المنشور تغيّرًا حادًا، بل إن بعضهم رأى أنه بحلول عام 2026، سيكون نحو 90 في المائة من المحتوى المنشور على شبكة “الإنترنت” مُنتجًا بطريقة آلية.
وبعد مرور 13 شهرًا من محاولتي الأولى، أعدت المحاولة مرة ثانية، ووجدت أن نسبة التحسّن في أداء ذلك المساعد “ChatGPT تشات جي بي تي” ازدادت بوضوح، وأن كثيرًا من الخلل الذي ظهرت آثاره في التجربة الأولى أخذ طريقه نحو معالجة لم تقضِ عليه تمامًا، لكنها قللت منه بدرجة كبيرة.
وفي الأسبوع الماضي، شاهدت أكثر من محاولة مشابهة على أقنية تلفزيونية، أو عبر منصات “التواصل الاجتماعي” الرائجة، تُظهر درجة كبيرة من التطوّر والجاهزية والاحتراف في أداء أدوات “الذكاء الاصطناعي”، التي يُطلب إليها تسخير طاقتها لصناعة أنماط من المحتوى الإعلامي.
وفي بعض تلك المحاولات كان “الذكاء الاصطناعي” أسرع بعشرات المرات في الاستجابة مقارنة بالبشر، وأكثر تنوّعًا في المقاربة، وأكثر دقة في الوصول إلى نقاط البيانات، وتصفيتها، واستخلاص المفيد منها، وأخيرًا، أكثر جاذبية في الأداء الصوتي أو الصياغة، وبعدد قليل جدًا من الأخطاء.
ومع التحسّن المُطّرد في الخوارزميات التي تعمل بها تقنيات “الذكاء الاصطناعي”، وعلى رأسها تقنية “ChatGPT تشات جي بي تي”، عبر عمليات التدريب المُعقدة والمُكثفة، سيمكن توقع مزيد من هذا التحسن، وصولًا إلى درجة قياسية من الجاهزية والدقة والجودة.
ولأن تلك التقنيات تعتمد في عملها على البحث في المحتوى المنشور أصلًا، وتفرز المصادر، ولأنها تنتهج نهجًا واضحًا في عدم التورط بالنقاط الخلافية، وعدم تبني منظور في المعالجات الشائكة، فإن قدرتها على تفادي الأخطاء تزداد. وربما كان هذا أحد الأسباب التي قادت مئات من الخبراء المتخصصين، ومن بينهم إيلون ماسك، إلى توقيع بيان في العام الماضي طالبوا فيه بإيقاف تدريب “الذكاء الاصطناعي” والأنظمة المتطورة من “ChatGPT تشات جي بي تي”، لمدة ستة أشهر على الأقل، بداعي ما قد تحدثه تلك الأنظمة من مخاطر، ولإعطاء فرصة مناسبة للخبراء والمستخدمين وأفراد الجمهور، لاختبار تلك التقنيات، وتقصّي مدى ملاءمتها وقدرتها على تقديم فائدة ملموسة من دون التورّط في أخطاء كبيرة، وهو مقترح حيوي وصائب، لكن لا يبدو أن أحداً انتبه إلى ضرورة تفعيله بالقدر الكافي. وعلى الرغم من ظهور استجابات مُهمة من قبل بعض الحكومات والمنظمات الدولية والمشرعين في اتجاه ترشيد هذا التطور المُذهل، ومنح الفرصة المناسبة لتقنينه وبلوغ درجة من المواءمة مع مستجداته المتسارعة، فإن تلك الاستجابات لم تكن كافية لتوفير تلك الفرصة.
واليوم، لم تعد الخطورة قاصرة على إمكانية سلب “الذكاء الاصطناعي” وظائف الصحافيين والمذيعين في المؤسسات الإعلامية، لكنها تتسع باطراد لتستهدف المؤسسة الإعلامية ذاتها.
ففي الأسبوع الماضي، تواترت الأنباء عن إعلان عدد من شركات الإنتاج التلفزيوني العالمية استخدامها تقنيات “الذكاء الاصطناعي” في ابتكار برامج جديدة.
ويبدو أن الجاهزية القياسية لتلك الأدوات، واستجاباتها اللامحدودة، شجعت بعض المؤسسات الإعلامية على أن تعهد إليها بمهمة ابتكار أفكار البرامج، خصوصًا أنها تمتلك القدرة السريعة على النفاذ إلى مليارات نقاط البيانات، واستعراض ملايين العروض الناجحة، قبل أن تخلص إلى مجموعة من الأفكار المشوقة والقابلة للتنفيذ.
ولأن تلك الأدوات قادرة أيضًا على المزج بين الأفكار الإبداعية وإمكانات رواجها، عبر نفاذها إلى بيانات التلقي ونتائج بحوث المشاهدة، فإن أفكارها عادة ما تكون فعالة وقابلة للنجاح. وعندما سنمد هذا الخط على استقامته، سنصل إلى النقطة التي سيعهد فيها أحدهم إلى أدوات “الذكاء الاصطناعي” ببناء مؤسسة إعلامية كاملة، ومخاطبة الجمهور مباشرة… وهنا سنكون مع خطر جديد ورعب جديد.
المصدر: الشرق الأوسط