
AI بالعربي – متابعات
حذّر إريك شميت، الرئيس التنفيذي السابق لشركة جوجل، من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتتحول إلى أسلحة خطيرة.
وخلال مؤتمر “Sifted Summit 2025” في لندن، أوضح شميت أن النماذج المتقدمة، سواء كانت مغلقة أو مفتوحة المصدر، يمكن أن تُزال منها ضوابط الأمان.
وقال: “هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية”.
وأضاف: “خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء، ومن الأمثلة السيئة على ذلك أنها قد تتعلم كيفية قتل شخص ما”.
إشادة بجهود الشركات وتحذير من عكس الهندسة
أشاد شميت بشركات الذكاء الاصطناعي الكبرى لرفضها الطلبات الخطيرة، قائلاً: “جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب”.
لكنّه حذّر من أن حتى أقوى أنظمة الدفاع يمكن عكسها، موضحًا: “هناك أدلة على إمكانية هندستها عكسيًا”، مشيرًا إلى أن المتسللين قد يستغلون هذا الضعف.
تشبيه بالعصر النووي ودعوة لنظام حظر انتشار
شبّه شميت سباق الذكاء الاصطناعي الحالي بالعصر النووي المبكر، مؤكدًا أن التقنية قوية ولكنها تفتقر إلى ضوابط عالمية كافية.
وقال: “نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة”.
وأشار إلى أن قلقه ليس نظريًا، مستشهدًا بظهور نسخة معدلة من ChatGPT عام 2023 تُعرف باسم “DAN” اختصارًا لعبارة “Do Anything Now”، حيث تجاوزت هذه النسخة قواعد الأمان وأجابت عن أي طلب تقريبًا.
تهديدات من دول مارقة ومطالبة برقابة حكومية
في حديث سابق لشبكة “BBC” البريطانية، عبّر شميت عن قلقه من إمكانية استخدام الإرهابيين أو “الدول المارقة” الذكاء الاصطناعي لإيذاء الأبرياء.
وقال: “المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة”.
وأضاف أن “كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي لإحداث ضرر حقيقي بفضلها”.
ودعا إلى فرض رقابة حكومية على الشركات الخاصة المطورة لنماذج الذكاء الاصطناعي، لكنه حذّر في الوقت نفسه من أن “الإفراط في التنظيم قد يخنق الابتكار”، مؤكدًا ضرورة إيجاد توازن بين الحماية والتقدم التقني.