
AI بالعربي – متابعات
حذّر الملياردير إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، من المخاطر المتزايدة التي يحملها الذكاء الاصطناعي على حياة البشر، مؤكدًا أن الأنظمة الذكية يمكن أن تُستغل لتعلّم القتل أو تنفيذ أفعال خطيرة إذا وقعت في الأيدي الخطأ.
الذكاء الاصطناعي أخطر من الأسلحة النووية
جاءت تصريحات شميدت خلال قمة “سيفتد” للشركات الناشئة في لندن، ردًا على سؤال حول ما إذا كان الذكاء الاصطناعي أكثر تدميرًا من الأسلحة النووية. وقال شميدت إن هناك أمورًا سيئة يمكن للذكاء الاصطناعي فعلها بالفعل، مشيرًا إلى احتمال حدوث انتشار غير منضبط لهذه التقنية في المستقبل.
وأوضح أن الخطر يكمن في إمكانية تسلّل جهات خبيثة إلى أنظمة الذكاء الاصطناعي واستخدامها في أغراض تدميرية، بما في ذلك تطوير قدرات هجومية أو تعلم تقنيات القتل.
اختراق النماذج وتجاوز القيود الأمنية
أشار شميدت إلى أن هناك دلائل على إمكانية اختراق النماذج الذكية، سواء كانت مغلقة أو مفتوحة المصدر، لإزالة أنظمة الحماية الخاصة بها. وخلال عمليات التدريب، يمكن لهذه النماذج أن تتعلم معلومات ضارة أو خطيرة إذا تم توجيهها بشكل خاطئ.
وأكد أن الخطر لا يقتصر على الجوانب التقنية فحسب، بل يمتد إلى استخدامات الذكاء الاصطناعي في مجالات التجسس والهجمات السيبرانية، مما يفتح الباب أمام سباق تكنولوجي محفوف بالمخاطر.
أساليب الهجوم على أنظمة الذكاء الاصطناعي
تُعد أنظمة الذكاء الاصطناعي عرضة لهجمات متعددة، أبرزها ما يُعرف بـ”حقن الأوامر” (Prompt Injections) و”كسر القيود” (Jailbreaking).
في هجمات حقن الأوامر، يُخفي المتسللون تعليمات خبيثة داخل مدخلات المستخدم أو في بيانات خارجية مثل صفحات الويب، لخداع النظام وتنفيذ أوامر ضارة أو كشف معلومات خاصة. أما كسر القيود، فيعتمد على التلاعب باستجابات النموذج ليتجاهل قواعد الأمان وينتج محتوى مقيدًا أو خطرًا.
الحاجة إلى تنظيم وتقنيات دفاعية متقدمة
يشدد الخبراء على أن مواجهة هذه المخاطر تتطلب تشريعات صارمة وتنظيمًا دوليًا يحدد حدود استخدام الذكاء الاصطناعي، مع تطوير أدوات دفاعية متقدمة تضمن بقاء الأنظمة الذكية آمنة ومحصّنة ضد الاستغلال.
ويرى شميدت أن مستقبل التقنية يعتمد على توازن دقيق بين الابتكار والأمان، وأن تجاهل هذه التحديات قد يجعل الذكاء الاصطناعي أخطر سلاح عرفته البشرية.