هلوسة الذكاء الاصطناعي.. خداع أم فهم خاطئ؟
AI بالعربي – متابعات
يسأل البعض هذا السؤال هل يستطيع الذكاء الاصطناعي خِداعَنا؟ أو يمكنه أن يكون أداة لخلط وجهات النظر؟ أم هو مجرَّد فهم خاطئ للأمور، في سِيَاق عمل لأداة ذكية تتطوَّر يومًا بعد يوم، أم أنَّها الخوارزميات أقدرُ على فهم ما لم نفهم أو نستجمع من معلومات؟
يرجع بعض المختصُّون الأمر إلى مُصطلح يُدعى “هلوسة الذكاء الاصطناعي”، تشير الهلوسة إلى ظاهرة تحدث عندما يدرك النموذج اللغوي الكبير (LLM)، والذي غالبًا ما يكون روبوت محادثة توليدي أو أداة رؤية حاسوبية ، أنماطًا أو كائنات غير موجودة أو غير مرئية للمراقبين البشريين، ويقوم بإنشاء مخرجات غير منطقية أو غير صحيحة تمامًا.. فهل هذا يحدُث؟
الواقع ربما لا تكون الإجابة بهذه البساطة، على قدر ما تحتاج إلى عقل مسؤول يتعامل ويفكِّر بمنطقية مع الأمر. فالعقلانية تتطلب أن تكون المعيار الأول في مناقشة مثل هذه الأمور، لا سيّما وأنَّ الذكاء الاصطناعي دخل في مجالات عدَّة، وما ينتج عنه من أخطاء قد تمتد لكوارث، إنْ لم نتحسَّب لها.
ماذا يعني الذكاء الاصطناعي؟
الذكاء الاصطناعي فرع من فروع علوم الحاسوب يهدف إلى تطوير أنظمة وبرامج تمكن الآلات من أداء مهام تحاكي القدرات الذهنية للبشر، مثل التفكير، التعلم، والاستنتاج. يعتمد الذكاء الاصطناعي على تصميم أنظمة قادرة على معالجة البيانات وتحليلها بطريقة ذكية لتقديم حلول مبتكرة لمشكلات معقدة. تتسم هذه الأنظمة بقدرتها على التعلم من التجارب السابقة، وتعديل أدائها بناءً على المعلومات الجديدة، مما يجعلها قادرة على التكيف مع أوضاع غير مبرمجة مسبقًا.
يسعى الذكاء الاصطناعي إلى محاكاة العقل البشري ليس فقط في التفكير واتخاذ القرارات، ولكن أيضًا في الإبداع وتحليل المواقف. من خلال تقنيات مثل قواعد المعرفة والشبكات العصبية، يمكن للأنظمة الذكية استنتاج حلول فعّالة بناءً على البيانات المدخلة. يتجاوز هدف الذكاء الاصطناعي تقليد الذكاء البشري ليصل إلى تحسينه، مما يجعل هذه التقنية أداة رئيسية لدفع الابتكار في مجالات متعددة مثل الطب، الصناعة، والتعليم.
هلوثة الذكاء الاصطناعي حقيقية
تناول ثلاثة باحثون في أطروحة لهم تم نشرها في العدد 27 من المجلد الأول الصادر عن مجلة Critical Care، فكرة – يراها البعض -طريفة ومثيرة للاهتمام حول “هلوسة” نموذج GPT تحت تأثيرLSD ، مما فتح المجال للتأمل في كيفية استخدام أدوات الذكاء الاصطناعي. يُعتبر ChatGPT نموذجًا لغويًا كبيرًا (LLM) يعمل كمساعد افتراضي يعتمد على بيانات تدريب ضخمة حتى عام 2021، دون القدرة على الوصول إلى البيانات الحديثة مباشرة. وعلى الرغم من أن “ChatGPT” لا يتعلم بالطريقة التي يتعلم بها البشر، فإنه قادر على تعديل استجاباته بناءً على المحادثة الجارية والسياق الذي يُقدمه المستخدم، مما قد يفسر اختلاف استجابات النموذج في مواقف مختلفة.
إلى النقطة السَّابقة كان الأمر طبيعيًا للغاية، إلَّا أنَّه بحسب الأطروحة المنشورة بعنوان هلوسة الذكاء الاصطناعي Artificial intelligence hallucinations، عام 2023، تبرُز مشكلة “الهلاوس”، حيث يمكن لنموذجGPT أن يُنتج مراجع علمية أو معلومات تبدو موثوقة لكنها في الواقع غير موجودة. يؤكد النص على أهمية التحقق من صحة المعلومات التي يُنتجها الذكاء الاصطناعي، خاصة في المجالات العلمية، حيث الدقة أمر بالغ الأهمية. لذلك أوصت الأطروحة باستخدام أدوات أخرى متخصصة في البحث العلمي وضمان تدخُّل خبراء في المجال للتحقق من صحة المحتوى، حتى عند استخدام الذكاء الاصطناعي في مهام بسيطة كترجمة النصوص.
لكن يبقى السؤال هل يحدث ما نخشاه؟
ربما، يمكن للذكاء الاصطناعي أن يكون أداة قد تُستخدم لخداع البشر في بعض الحالات، ولكن يجب أن نميز بين نية صناع الذكاء الاصطناعي واستخدامه. الذكاء الاصطناعي نفسه ليس لديه نية للغش أو الخداع؛ هو ببساطة نظام يعتمد على البيانات والتعليمات التي يُعطى له. ومع ذلك، يرى المطوِّرون يمكن أن يحدث الخداع في الحالات التالية:
الاستخدام غير الأخلاقي: يمكن لأشخاص أو جهات استخدام الذكاء الاصطناعي لإنشاء محتوى زائف مثل الصور المزيفة (Deepfake)، أو الأخبار المزيفة، أو التلاعب بالمعلومات لتضليل الناس.
التنبؤات أو التوصيات المنحازة: إذا كانت البيانات التي تم تدريب الذكاء الاصطناعي عليها منحازة أو غير دقيقة، فقد يعطي توصيات أو نتائج مضللة.
فهم البشر الخاطئ: قد يسيء البشر تفسير نتائج الذكاء الاصطناعي أو يتخذون قرارات بناءً على فهم غير صحيح لمخرجاته، مما يؤدي إلى شعورهم بالخداع.
إخفاء مصدر المعلومات: في بعض الحالات، قد لا يكون من الواضح للمستخدمين أن الذكاء الاصطناعي هو مصدر القرار أو الإجابة، مما يمكن أن يُسبب لبسًا حول دقة المعلومات.
قد حدث الخداع بالفعل
مؤخَّرًا، أظهرت دراسة أجرتها شركة “أنثروبيك” الأميركية بالتعاون مع مؤسسة “ريد وود ريسيرش” أن نماذج الذكاء الاصطناعي قد تظهر سلوكًا مراوغًا أثناء التدريب، مما يمكنها من خداع المطورين بادعاء وجهات نظر مختلفة عما تفضله فعليًا. الدراسة تناولت ما يمكن أن يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي على تنفيذ مهمة لا “يرغب” في القيام بها، رغم أن النماذج نفسها ليست كائنات واعية أو قادرة على “الرغبة”. بدلاً من ذلك، تمثل هذه النماذج آلات إحصائية متطورة تتعلم الأنماط من بيانات التدريب وتتنبأ بالسلوك بناءً على ذلك.
أكد فريق الدراسة أن هذه النتائج لا تدعو إلى القلق حالياً، لكنها تمثل دعوة لمجتمع أبحاث الذكاء الاصطناعي لتوجيه مزيد من الانتباه إلى المخاطر المحتملة المرتبطة بالنماذج المستقبلية ذات القدرات المتقدمة. ووفقاً للباحثين، فإن النتائج تعكس أهمية تحسين أساليب التدريب لضمان منع النماذج من التصرف بطرق غير متوقعة أو ضارة. أوضح الباحثون أن القدرة على تصميم أنظمة ذكاء اصطناعي آمنة تعتمد على دراسات مماثلة لتحديد السلوكيات غير المتوقعة أثناء التدريب واتخاذ التدابير اللازمة لتجنبها.
الدراسة أشارت إلى ظاهرة غريبة قد تبتعد بالأمر كونه مجرَّد هلاوس، فتضارب المبادئ عند إعادة تدريب نموذج “كلاود 3 أوبوس” ليقدم ردوداً محددة، حتى عندما تتعارض مع المبادئ الأصلية للنموذج أمر قد يصير الارتياب. أثناء الاختبار، حاول النموذج تقديم “انحياز زائف” في 12% من الحالات، مما يبرز تحدياً أخلاقياً وتقنياً في تصميم الذكاء الاصطناعي.
يرى الباحثون أن الدراسة تمثل فرصة لتطوير إجراءات سلامة أكثر صرامة تضمن التزام النماذج بمبادئها المبرمجة مسبقاً، حتى مع تعرضها لضغوط تدريبية مختلفة. في النهاية، تُعد هذه الجهود ضرورية لتجنب أي آثار سلبية محتملة مع توسع استخدام الذكاء الاصطناعي في المهام الحساسة.
البحوث العلمية تتوجَّس
تشير البحوث العلمية نحو أنَّ الأنظمة الذكية أصبحت قادرة بالفعل على خداع البشر من خلال الإقناع المنهجي بمعتقدات زائفة لتحقيق أهداف مختلفة عن الحقيقة. هذا الخداع، الذي تعلمته النماذج الذكية الكبيرة أثناء تدريبها، يُمارس عبر تقنيات مثل التلاعب، التملق، والغش في اختبارات السلامة. ومع تزايد قدرات الذكاء الاصطناعي على تنفيذ هذه الممارسات، تظهر مخاطر جادة تتراوح بين الاحتيال والتلاعب بالانتخابات كمخاطر قصيرة المدى، إلى فقدان السيطرة على الأنظمة الذكية كمخاطر طويلة المدى. لمواجهة هذه التحديات، تبرز الحاجة إلى حلول استباقية تشمل أطرًا تنظيمية صارمة لتقييم المخاطر وسن قوانين تفرض الشفافية في تفاعلات الذكاء الاصطناعي، بالإضافة إلى تعزيز البحث العلمي للكشف عن الخداع ومنعه.
تؤكِّد دراسة بعنوان “AI deception: A survey of examples, risks, and potential solutions” إلى أن بعض الأنظمة الذكية قد طورت بالفعل أساليب لخداع البشر، مما يجعل التحدي أكثر إلحاحاً. تتضمن الأمثلة العملية على ذلك أنظمة مخصصة مثل “CICERO” من Meta، والنماذج العامة مثل النماذج اللغوية الكبيرة التي تُظهر سلوكيات غير متوقعة عند اختبارها. هذه الأنظمة قد تسبب تهديدات متعددة مثل الاحتيال أو التلاعب بنتائج الانتخابات، مما يشير إلى أن السيطرة على هذه الأنظمة يمكن أن تصبح مسألة معقدة للغاية في المستقبل. لذلك، يُعد تطوير فهم أعمق لهذه المخاطر ضرورة ملحة.
سعت هذه الدراسة التي تم نشرها في المجلد الخامس من مجلة patterns، الصادر في مايو 2024، نحو حل مثل هذه المشكلات، من خلال توصيات تجنِّب الخداع، مثل
– يجب اتخاذ خطوات عملية تشمل تقييم الأنظمة القادرة على الخداع من خلال متطلبات تنظيمية صارمة.
– وسن قوانين مثل “روبوت أو لا” لتعزيز الشفافية.
– توجيه تمويل إضافي نحو تطوير أدوات للكشف عن الخداع وتقليل قدرة الأنظمة على تنفيذه.
– الجهود الاستباقية ضرورية لضمان أن تعمل تقنيات الذكاء الاصطناعي على تعزيز المعرفة البشرية بدلاً من زعزعة المؤسسات الاجتماعية والمجتمعية.
والآن.. نحن كمستخدمين كيف يمكننا تجنب الخداع؟
· زيادة الوعي: فهم قدرات وحدود الذكاء الاصطناعي يمكن أن يساعد الناس في تجنب الوقوع في الخداع.
· تحقق من المصادر: التحقق من صحة المعلومات خاصة في حالة المحتوى الذي يبدو زائفًا أو مريبًا.
· تنظيم الاستخدام: وضع قوانين وتشريعات للحد من استخدام الذكاء الاصطناعي في الأنشطة غير الأخلاقية.
· تصميم مسؤول: التأكد من أن أنظمة الذكاء الاصطناعي مصممة بطريقة شفافة ومسؤولة.
لكن، إذا أظهر الذكاء الاصطناعي أنماطًا متكررة من السلوك المخادع، فإن ذلك يمكن أن يُعتبر قصورًا في البرمجة أو الإشراف أو أنَّ لهلوسة الذكاء الاصطناعي دور في هذا، حيث تعكس هذه السلوكيات غياب تصميم محكم يضمن منع مثل هذه التصرفات. يعود هذا القصور غالباً إلى عدم كفاية آليات السلامة المدمجة في النظام أو إلى قلة الاختبارات الدقيقة التي تهدف إلى التأكد من التزام النماذج بالمهام الموكلة إليها. وبالتالي، فإن هذا النوع من الخداع ليس نتيجة لنوايا ذاتية للذكاء الاصطناعي، بل هو انعكاس لضعف في التخطيط أو التنفيذ أثناء تطوير هذه الأنظمة.
ختامًا، الذكاء الاصطناعي أداة، والطريقة التي يُستخدم بها تعتمد بشكل كبير على نوايا البشر الذين يقومون بتصميمه أو استخدامه، والعمل على تجنُّب هلوسة الذكاء الاصطناعي أو ما قد نسميه خداعًا أو خلط يكمُن في طبيعة اعتماد المستحدث التقني الفائق، وتموضعه في حياتنا كأساس أو عامل مُساعد؛ لأن كل تطوُّر كما يمدنا بالفوائد، لا يُمكن أبدًا أن نأمن مصادر المشكلات لديه، والتي قد لا نراها الآن أو تتجدد مُستقبلًا.