AI بالعربي – متابعات
حذّر الملياردير إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، من تصاعد المخاطر التي يشكّلها الذكاء الاصطناعي على حياة البشر. وأوضح أن بعض الجهات قد تستغل الأنظمة الذكية لتعلّم القتل أو تنفيذ أفعال خطيرة عندما تسيطر عليها.
الذكاء الاصطناعي أخطر من الأسلحة النووية
جاءت تصريحات شميدت خلال قمة “سيفتد” للشركات الناشئة في لندن. وجاء ذلك ردًا على سؤال حول ما إذا كان الذكاء الاصطناعي أكثر تدميرًا من الأسلحة النووية. كما قال شميدت إن الذكاء الاصطناعي قادر على ارتكاب أفعال خطيرة بالفعل. وحذّر من احتمال انتشار هذه التقنية بطريقة غير منضبطة في المستقبل.
.
وأوضح أن الخطر يكمن في احتمال تسلّل جهات خبيثة إلى أنظمة الذكاء الاصطناعي. وقد تستخدم هذه الجهات الأنظمة في أغراض تدميرية، مثل تطوير قدرات هجومية أو تعلم تقنيات القتل.
اختراق النماذج وتجاوز القيود الأمنية
أشار شميدت إلى دلائل تُبيّن أن المهاجمين يمكنهم اختراق النماذج الذكية، مغلقةً كانت أو مفتوحة المصدر. وبيّن أن المهاجمين قد يلجؤون إلى تعطيل أو إزالة آليات الحماية داخل تلك النماذج. وأكّد أن النماذج أثناء عمليات التدريب قد تتعلّم معلومات ضارة أو تقنيات خطرة إذا جرى توجيهها بشكل خاطئ.
وأكد أن الخطر لا يقتصر على الجوانب التقنية فقط. فهو يمتد إلى استخدامات الذكاء الاصطناعي في مجالات التجسس والهجمات السيبرانية، مما يفتح الباب أمام سباق تكنولوجي محفوف بالمخاطر.
أساليب الهجوم على أنظمة الذكاء الاصطناعي
تواجه أنظمة الذكاء الاصطناعي هجمات متعددة، أبرزها هجمات “حقن الأوامر” (Prompt Injections) و”كسر القيود” (Jailbreaking).
في هجمات حقن الأوامر، يزرع المتسللون تعليمات خبيثة داخل مدخلات المستخدم أو بيانات خارجية لخداع النظام وتنفيذ أوامر ضارة. أما كسر القيود، فيعتمد على تلاعب المخترقين باستجابات النموذج حتى يتجاوز قواعد الأمان ويولّد محتوى خطيرًا أو محظورًا.
الحاجة إلى تنظيم وتقنيات دفاعية متقدمة
يشدد الخبراء على أن مواجهة هذه المخاطر تتطلب تشريعات صارمة وتنظيمًا دوليًا واضحًا. ويجب أن تحد هذه التشريعات من استخدام الذكاء الاصطناعي في المجالات الحساسة. كما يرون ضرورة تطوير أدوات دفاعية متقدمة تضمن بقاء الأنظمة الذكية آمنة ومحصّنة ضد الاستغلال.
ويرى إريك شميدت أن مستقبل التقنية يعتمد على توازن دقيق بين الابتكار والأمان. ويحذر من أن تجاهل هذه التحديات قد يجعل الذكاء الاصطناعي أخطر سلاح عرفته البشرية.








