لماذا تزداد هلوسات الذكاء الاصطناعي مع كل تحديث جديد؟

AI بالعربي – متابعات

رغم تسارُع التطوّرات في مجال الذكاء الاصطناعيّ التوليديّ، وانتشار استخدام هذه التكنولوجيا في شتّى القطاعات، نظرًا لإمكاناتها الهائلة في تحسين أنماط العمل، وتسهيل حياة البشر، إلّا أنّ هذه التقنية تعاني من خللٍ يزداد حدّةً مع كلّ تحديثٍ تخضع له.

فقد تبيّن أنّه كلّما أصبحت برامج الذكاء الاصطناعيّ التوليديّ أقوى بفضل التحديثات التي تخضع لها، كلّما زادت جرأتها على الكذب بثقةٍ واختلاق معلوماتٍ وتقديمها على أنّها حقائقُ مُطلقة، حيث تُعرف هذه الظاهرة بـ”هلوسة الذكاء الاصطناعي”، وهي تجعل الآلة تتحدّث عن معلوماتٍ لا وجود لها.

وهذه الظاهرة لم تعد مجرّد خللٍ هامشيّ تعاني منه برامج الذكاء الاصطناعي كما في السابق، بل أصبحت مشكلةً تتّسع وتزداد تعقيدًا في مشهدٍ مثيرٍ للقلق، إذ تقف كبرى شركات التقنية عاجزةً عن فهم أسباب هذه “الهلوسات”، ممّا يثير تساؤلاتٍ كبيرة حول موثوقيّة واستدامة تكنولوجيا الذكاء الاصطناعيّ.

الهلوسة تزداد مع التحديثات

وبحسب تقريرٍ أعدّته “صحيفة نيويورك تايمز”، فإنّه ولأكثر من عامين، دأبت شركات مثل OpenAI وجوجل، على تحسين أنظمة الذكاء الاصطناعيّ الخاصّة بها بشكلٍ مطّرد، وخفّضت وتيرة الأخطاء الناتجة عن “الهلوسة”، ولكن المفارقة تكمن في أنّه عند خضوع هذه الأنظمة للتحديثات، فإنّها تُصاب بالهلوسة بمعدّلٍ أعلى من السابق، وذلك وِفقًا لاختباراتٍ قامت بها الشركات المطوّرة لهذه الأنظمة، إضافةً إلى اختباراتٍ أجراها شركاتٌ وباحثون مستقلّون.

فمثلًا، وجدت شركة OpenAI أنّ “o3” وهو أقوى نظامٍ لدى الشركة يُصاب بالهلوسة بنسبة 33 في المئة عند خضوعه لاختبار “PersonQA” المعياريّ، والذي يتضمّن الإجابة عن أسئلةٍ حول شخصياتٍ عامّة، وهذه النسبة هي ضِعفا معدّل الهلوسة الذي كانت تسجّله النسخة القديمة من النظام والتي تحمل اسم “o1”. أمّا نظام “o4-mini” الجديد من OpenAI، فقد سجّل معدّلَ هلوسةٍ بلغت نسبته 48 في المئة، أي أكثر من ثلاثة أضعاف المعدّل، عند خضوعه لاختبار “PersonQA”، وهي نسبةٌ مرتفعةٌ جدًّا.

كما أنّه، وعند خضوع أنظمة OpenAI لاختبارٍ آخر يحمل اسم “SimpleQA” مخصّصٍ لطرح أسئلةٍ أكثر عموميّة، كانت معدّلات الهلوسة لنظامي “o3″ و”o4-mini” مرتفعةً جدًّا، وبلغت 51 في المئة و79 في المئة على التوالي. أمّا نظام “o1” القديم، فقد سجّل معدّلَ هلوسةٍ بلغ 44 في المئة. وفي ورقةٍ بحثيّة تتناول تفاصيل هذه الاختبارات، ذكرت شركة OpenAI أنّ هناك حاجةً إلى مزيدٍ من البحث لفهم أسباب هذه النتائج.

أحدث نوبات الهلوسة

وفي مشهدٍ حديثٍ لظاهرة “هلوسة الذكاء الاصطناعي”، تسبّب روبوت دعمٍ فنّيّ، تابع لأداة البرمجة الناشئة Cursor، في أزمةٍ غير متوقّعة الشهر الماضي، عندما نبّه المستخدمين إلى تغييرٍ مزعومٍ في سياسة الشركة، زاعمًا أنّه لم يعُد يُسمح لهم باستخدام Cursor على أكثر من جهازٍ واحد، حيث أشعل هذا القرار غضب الكثير من المستخدمين الذين عمدوا إلى التهديد بإلغاء اشتراكاتهم مع الشركة.

ولكن المفاجأة الكبرى كانت في اكتشاف أنّ هذا التغيير لم يكن حقيقيًّا على الإطلاق، فقد تبيّن أنّ روبوت الذكاء الاصطناعي اخترع هذه السياسة من تلقاء نفسه، وذلك بحسب مايكل ترول، المؤسّس والرئيس التنفيذي لـCursor.

هلوسة مستعصية

ومنذ ظهور ChatGPT لأوّل مرّة في نهاية عام 2022، أثارت ظاهرة “هلوسة الذكاء الاصطناعي” مخاوفَ بشأن موثوقيّة هذه التكنولوجيا، وبما أنّ أنظمة الذكاء الاصطناعيّ تتعلّم من كميّاتٍ ضخمةٍ من البيانات، تفوق ما يمكن للبشر فهمه، فإنّ خبراء التكنولوجيا يجدون صعوبةً في تحديد لماذا تتصرّف هذه البرامج بهذه الطريقة. والمقلق أنّ هذه الهلوسات موجودةٌ في أغلب أنظمة الذكاء الاصطناعيّ التوليديّ، مثل تلك التي تطوّرها شركات ديب مايند وديب سيك وأنثروبيك وغيرها.

ويرى بعض الخبراء أنّ “هلوسة الذكاء الاصطناعي” قد تكون متأصّلةً في التقنية نفسها، ممّا يجعل التغلّب على هذه المشكلة أمرًا شبه مستحيل، خصوصًا أنّ روبوتات الذكاء الاصطناعيّ تعتمد على أنظمةٍ رياضيّة معقّدة، تساعدها في تخمين أفضل إجابةٍ ممكنة، حيث يقول عمرو عوض الله، الرئيس التنفيذي لشركة فيكتارا المختصّة بتطوير أدوات ذكاءٍ اصطناعيّ للشركات، إنّ “الهلوسة” لن تزول أبدًا رغم أنّ الشركات تبذل قصارى جهدها لحلّ هذه المشكلة.

بدورها تقول لورا بيريز-بيلتراشيني، الباحثة في جامعة إدنبرة وعضو الفريق الذي يجري دراسةً معمّقة حول مشكلة هلوسة الذكاء الاصطناعي، إنّه نظرًا لطريقة تدريب أنظمة الذكاء الاصطناعي، فإنّ هذه البرامج تميل إلى التركيز على القيام بمهمّةٍ واحدةٍ فقط، وتبدأ تدريجيًّا في نسيان المهام الأخرى، مشيرةً إلى أنّ هذه الأنظمة خلال فترة “التفكير” أو “المعالجة” التي تسبق التوصّل إلى الإجابة، تكون عُرضةً للهلوسة في كلّ خطوة، ومع ازدياد مدّة “التفكير”، تزداد احتماليّة تراكم الأخطاء وتفاقمها.

لا تفهم كالبشر

من جهتها تقول مستشارة الذكاء الاصطناعيّ المعتمدة من أوكسفورد، هيلدا معلوف، في تصريحات إعلامية، إنّ “هلوسة الذكاء الاصطناعي” ترجع إلى الطريقة التي تعمل بها هذه البرامج، التي لا “تفهم” المعلومات كما يفعل البشر، بل تختار الكلمات أو الإجابات بناءً على ما يبدو لها أنّه صحيح، وليس بناءً على ما هو حقيقيّ فعلًا. وهذه الطبيعة “الاحتماليّة” لنماذج الذكاء الاصطناعيّ مثل ChatGPT وGemini هي ناتجة عن أنماط التدريب التي خضعت لها، لافتةً إلى أنّ ظاهرة “هلوسة الذكاء الاصطناعي” تثير قلقًا كبيرًا، ويمكن أن تُؤدّي إلى عواقب وخيمة في المجالات عالية المخاطر مثل الرعاية الصحيّة والقانون والتعليم.

لماذا يهلوس الذكاء الاصطناعي؟

وبحسب معلوف، فإنّ “هلوسة الذكاء الاصطناعي” تحدث لعدّة أسباب، منها أنّ هذه الأنظمة تُدرَّب أحيانًا على بياناتٍ غير دقيقة أو متناقضة، كما أنّها تعتمد بشكلٍ كبيرٍ على “الارتباطات الإحصائيّة”، أي على الربط بين الكلمات بدلًا من فهم الحقيقة. إضافةً إلى ذلك، هناك بعض القيود التي يتمّ وضعها على طريقة عمل برامج الذكاء الاصطناعي، والتي تجعلها أكثر عُرضةً للأخطاء. مشيرةً إلى أنّه، رغم أنّ شركات الذكاء الاصطناعي تستخدم تقنياتٍ متقدّمة مثل “التعلّم من ملاحظات البشر”، لمحاولة تقليل هذه الأخطاء، إلّا أنّ النتائج لا تكون دائمًا مضمونة، في حين أنّ انعدام قدرة المهندسين على فهم عمليّات صنع القرار في برامج الذكاء الاصطناعي، يُعقّد مسار اكتشاف الهلوسة وتصحيحها.

ما الحلول المتوفّرة؟

وشدّدت معلوف على أنّ معالجة “هلوسة الذكاء الاصطناعي” تتطلّب اتّباع نهجٍ شاملٍ ومتكامل، يشمل إعطاء الأولويّة لدمج أدوات التحقّق من الحقائق داخل أنظمة الذكاء الاصطناعي، مع العمل على تحسين البرامج على فهم هذه الأدوات والتفاعل معها. كما ينبغي على صانعي السياسات وضع إرشاداتٍ لنشر الذكاء الاصطناعي في المجالات الحسّاسة، مع ضمان بقاء الرقابة البشريّة جزءًا لا يتجزّأ منها، تفاديًا لأيّ كارثةٍ قد تحدث، مشدّدةً على ضرورة إطلاع المعلّمين والمستخدمين على حدود قدرات الذكاء الاصطناعي، وتعزيز التقييم النقديّ للمحتوى المُنتج باستخدامه، إذ لا يُمكن ترسيخ موثوقيّة أنظمة الذكاء الاصطناعي وتسخير إمكاناتها بمسؤوليّة إلّا من خلال الجهود التعاونيّة.

لماذا تتفاقم “الهلوسة” بعد التحديثات؟

من جهته، يقول رئيس شركة “تكنولوجيا”، مازن الدكّاش، في تصريحات إعلامية، إنّ “هلوسة الذكاء الاصطناعي” ليست عيبًا في الكود يمكن إصلاحه أو خللًا سطحيًّا يمكن تجاوزه بتحديثٍ أو تعديلٍ تقنيّ سريع، بل هي نتيجة طبيعيّة لطريقة عمل برامج الذكاء الاصطناعي. وللأسف، فإنّ إنتاج معلوماتٍ غير صحيحة أو مختلقة، سيبقى احتمالًا قائمًا ما لم يحدث تحوّلٌ جذريّ في طريقة بناء هذه الأنظمة.

ويكشف الدكّاش أنّ ارتفاع نسب “هلوسة برامج الذكاء الاصطناعي” بعد التحديثات التي تخضع لها، يعود لعدّة أسباب. فبعض التحديثات تركّز مثلًا على تحسين الأداء في مهامّ معيّنة أو على بياناتٍ محدّدة، ممّا قد يُضعف أداء البرنامج في مهامّ أخرى ويفقده شيئًا من التوازن في إنتاج المعرفة. كما أنّه بعد التحديثات، تزداد قدرة برامج الذكاء الاصطناعي على توليد نصوصٍ أكثر تعقيدًا من السابق، وهذا يساعدها على ابتكار إجاباتٍ تبدو صحيحة ومقنعة من حيث الشكل ولكنّها خاطئة من حيث المضمون، أي أنّ النموذج يصبح أكثر قدرةً على الإقناع وليس بالضرورة أكثر مصداقيّة.

هلوسات المستقبل أخطر

وشدّد الدكّاش على أنّه إذا بقيت البنية المعتمدة لتطوير برامج الذكاء الاصطناعي على حالها، فسيظلّ العالم يواجه نفس النوع من الهلوسات، وربّما تكون أكثر خطرًا في المستقبل، كونها ستصدر من أنظمةٍ قادرةٍ على اتّخاذ قراراتٍ ذات طابعٍ تنفيذيّ، وذلك مع ظهور الذكاء الاصطناعيّ العام، أو ما يُعرف بالذكاء الاصطناعيّ الخارق. ولذلك فإنّ الحل يكمن في إعادة هندسة الجوانب المعماريّة لأنظمة الذكاء الاصطناعي الحاليّة، لتصبح قادرةً على “التحقّق” من المعلومات وليس فقط “الإجابة”.

اترك رد

Your email address will not be published.