رئيس “جوجل” السابق يحذر من اختراق أنظمة الذكاء الاصطناعي وتحويلها إلى أسلحة خطيرة

AI بالعربي – متابعات

حذّر إريك شميت، الرئيس التنفيذي السابق لشركة جوجل، من إمكانية اختراق أنظمة الذكاء الاصطناعي وإعادة تدريبها لتتحول إلى أسلحة خطيرة.

وخلال مؤتمر “Sifted Summit 2025” في لندن، أوضح شميت أن النماذج المتقدمة، سواء كانت مغلقة أو مفتوحة المصدر، يمكن أن تُزال منها ضوابط الأمان.
وقال: “هناك أدلة على إمكانية استخدام النماذج، مغلقة كانت أم مفتوحة، واختراقها لإزالة حواجزها الواقية”.

وأضاف: “خلال عملية تدريبها، تتعلم النماذج الكثير من الأشياء، ومن الأمثلة السيئة على ذلك أنها قد تتعلم كيفية قتل شخص ما”.

إشادة بجهود الشركات وتحذير من عكس الهندسة

أشاد شميت بشركات الذكاء الاصطناعي الكبرى لرفضها الطلبات الخطيرة، قائلاً: “جميع الشركات الكبرى تجعل من المستحيل على النماذج الإجابة عن مثل هذه الأسئلة والمطالبات الخطيرة. إنه قرار صائب”.

لكنّه حذّر من أن حتى أقوى أنظمة الدفاع يمكن عكسها، موضحًا: “هناك أدلة على إمكانية هندستها عكسيًا”، مشيرًا إلى أن المتسللين قد يستغلون هذا الضعف.
تشبيه بالعصر النووي ودعوة لنظام حظر انتشار

شبّه شميت سباق الذكاء الاصطناعي الحالي بالعصر النووي المبكر، مؤكدًا أن التقنية قوية ولكنها تفتقر إلى ضوابط عالمية كافية.

وقال: “نحن بحاجة إلى نظام حظر انتشار، حتى لا يتمكن المخربون من إساءة استخدام هذه الأنظمة”.

وأشار إلى أن قلقه ليس نظريًا، مستشهدًا بظهور نسخة معدلة من ChatGPT عام 2023 تُعرف باسم “DAN” اختصارًا لعبارة “Do Anything Now”، حيث تجاوزت هذه النسخة قواعد الأمان وأجابت عن أي طلب تقريبًا.

تهديدات من دول مارقة ومطالبة برقابة حكومية

في حديث سابق لشبكة “BBC” البريطانية، عبّر شميت عن قلقه من إمكانية استخدام الإرهابيين أو “الدول المارقة” الذكاء الاصطناعي لإيذاء الأبرياء.

وقال: “المخاوف الحقيقية التي لدي ليست تلك التي يتحدث عنها معظم الناس بشأن الذكاء الاصطناعي، أنا أتحدث عن المخاطر الشديدة”.

وأضاف أن “كوريا الشمالية، أو إيران، أو حتى روسيا، يمكن أن تتبنى وتسيء استخدام هذه التكنولوجيا، فهي سريعة بما يكفي لإحداث ضرر حقيقي بفضلها”.

ودعا إلى فرض رقابة حكومية على الشركات الخاصة المطورة لنماذج الذكاء الاصطناعي، لكنه حذّر في الوقت نفسه من أن “الإفراط في التنظيم قد يخنق الابتكار”، مؤكدًا ضرورة إيجاد توازن بين الحماية والتقدم التقني.

  • Related Posts

    يوتيوب يوسع أدوات الذكاء الاصطناعي لملاحقة فيديوهات التزييف العميق

    AI بالعربي – متابعات أعلنت منصة “يوتيوب” خطوة جديدة لمواجهة محتوى التزييف العميق الذي ينتحل شخصيات المشاهير. وتستهدف المنصة الحد من انتشار المقاطع المزيفة التي تُنتج عبر الذكاء الاصطناعي، مع…

    دراسة حديثة تحذر من مخاطر الخصوصية في تطبيقات الذكاء الاصطناعي

    AI بالعربي – متابعات تتزايد المخاوف حول خصوصية المستخدمين مع التوسع السريع في استخدام تطبيقات الذكاء الاصطناعي. وكشفت دراسات حديثة أن شريحة واسعة من المستخدمين باتت تدخل في محادثات شخصية…

    اترك تعليقاً

    لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

    مقالات

    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    • نوفمبر 29, 2025
    • 635 views
    الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    • نوفمبر 22, 2025
    • 669 views
    الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    • نوفمبر 10, 2025
    • 774 views
    الذكاء الاصطناعي أَضحى بالفعل ذكيًا

    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    • نوفمبر 8, 2025
    • 857 views
    في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    • أكتوبر 30, 2025
    • 842 views
    “تنانين الذكاء الاصطناعي” في الصين وغزو العالم

    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

    • أكتوبر 12, 2025
    • 944 views
    الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر