رئيس “جوجل” السابق يحذر من اختراق أنظمة الذكاء الاصطناعي وتحويلها إلى أسلحة خطيرة

AI بالعربي – متابعات

حذّر إريك شميت، الرئيس التنفيذي السابق لشركة جوجل، من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتتحول إلى أسلحة خطيرة.

وخلال مؤتمر “Sifted Summit 2025” في لندن، أوضح شميت أن النماذج المتقدمة، سواء كانت مغلقة أو مفتوحة المصدر، يمكن أن تُزال منها ضوابط الأمان.
وقال: “هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية”.

وأضاف: “خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء، ومن الأمثلة السيئة على ذلك أنها قد تتعلم كيفية قتل شخص ما”.

إشادة بجهود الشركات وتحذير من عكس الهندسة

أشاد شميت بشركات الذكاء الاصطناعي الكبرى لرفضها الطلبات الخطيرة، قائلاً: “جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب”.

لكنّه حذّر من أن حتى أقوى أنظمة الدفاع يمكن عكسها، موضحًا: “هناك أدلة على إمكانية هندستها عكسيًا”، مشيرًا إلى أن المتسللين قد يستغلون هذا الضعف.
تشبيه بالعصر النووي ودعوة لنظام حظر انتشار

شبّه شميت سباق الذكاء الاصطناعي الحالي بالعصر النووي المبكر، مؤكدًا أن التقنية قوية ولكنها تفتقر إلى ضوابط عالمية كافية.

وقال: “نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة”.

وأشار إلى أن قلقه ليس نظريًا، مستشهدًا بظهور نسخة معدلة من ChatGPT عام 2023 تُعرف باسم “DAN” اختصارًا لعبارة “Do Anything Now”، حيث تجاوزت هذه النسخة قواعد الأمان وأجابت عن أي طلب تقريبًا.

تهديدات من دول مارقة ومطالبة برقابة حكومية

في حديث سابق لشبكة “BBC” البريطانية، عبّر شميت عن قلقه من إمكانية استخدام الإرهابيين أو “الدول المارقة” الذكاء الاصطناعي لإيذاء الأبرياء.

وقال: “المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة”.

وأضاف أن “كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي لإحداث ضرر حقيقي بفضلها”.

ودعا إلى فرض رقابة حكومية على الشركات الخاصة المطورة لنماذج الذكاء الاصطناعي، لكنه حذّر في الوقت نفسه من أن “الإفراط في التنظيم قد يخنق الابتكار”، مؤكدًا ضرورة إيجاد توازن بين الحماية والتقدم التقني.

  • Related Posts

    “السعودية” تقدم نموذجها المتقدم في حوكمة الذكاء الاصطناعي والسيادة الرقمية بـ”منتدى نابولي الدولي”

    AI بالعربي – متابعات شاركت المملكة العربية السعودية، ممثلة في الهيئة السعودية للبيانات والذكاء الاصطناعي “سدايا”، في منتدى “حوارات روما المتوسطية MED Dialogues 2025” الذي أُقيم في مدينة نابولي الإيطالية…

    أول روبوت “سانتا كلوز” لتعليم وترفيه الأطفال بالذكاء الاصطناعي

    AI بالعربي – متابعات يشهد عالم الروبوتات طفرة جديدة مع إطلاق MangDang Technology، الشركة المتخصصة في الروبوتات ومقرها هونغ كونغ، أول روبوت سانتا كلوز مدعوم بالذكاء الاصطناعي. يهدف الابتكار إلى…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    • أكتوبر 12, 2025
    • 162 views
    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    • أكتوبر 1, 2025
    • 251 views
    حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    • سبتمبر 29, 2025
    • 265 views
    الإعلام.. و”حُثالة الذكاء الاصطناعي”

    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    • سبتمبر 26, 2025
    • 201 views
    تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

    • سبتمبر 24, 2025
    • 225 views
    كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

    الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف

    • سبتمبر 18, 2025
    • 158 views
    الذكاء الاصطناعي في قاعة التشريفات: ضيف لا مضيف