AI بالعربي – متابعات
أعلنت شركة OpenAI توصلها إلى اتفاق مع وزارة الدفاع الأميركية لنشر نماذج الذكاء الاصطناعي الخاصة بها داخل الشبكة المصنفة للبنتاغون. يأتي الاتفاق بعد تصاعد خلاف حاد بين الوزارة وشركة Anthropic بشأن شروط الاستخدام العسكري لتقنياتها. يمثل القرار تحولًا مهمًا في سباق الذكاء الاصطناعي داخل المؤسسات الأمنية الأميركية.
أكد سام ألتمان، الرئيس التنفيذي لشركة OpenAI، عبر منصة إكس، أن الشركة أبرمت اتفاقًا لنشر نماذجها داخل الشبكة المصنفة لوزارة الدفاع. وأوضح أن التعاون الجديد يراعي ضوابط السلامة والحوكمة التي تعتمدها الشركة. أعاد وزير الدفاع بيت هيجسيث نشر التصريح، كما شاركه كبير مسؤولي التكنولوجيا في البنتاغون إميل مايكل.
تصاعدت الأزمة عندما صنف هيجسيث شركة Anthropic كخطر على سلسلة التوريد المرتبطة بالأمن القومي. أدى القرار إلى منع المقاولين العسكريين والشركاء من التعامل مع الشركة بشكل فوري. جاء ذلك بعد توجيه من الرئيس الأميركي دونالد ترمب إلى الوكالات الفيدرالية بوقف استخدام برمجيات Anthropic.
سبق قرار الاستبعاد مهلة منحها البنتاغون لشركة Anthropic لقبول استخدام عسكري غير مقيد لتقنياتها. رفض داريو أمودي، الرئيس التنفيذي للشركة، تلك الشروط مؤكدًا أنه لا يستطيع قبولها بضمير مرتاح. بعد هذا الرفض، تحركت وزارة الدفاع نحو بديل تقني ينسجم مع متطلباتها التشغيلية.
أوضح ترمب أن معظم الوكالات يجب أن توقف استخدام تقنيات Anthropic فورًا. منح البنتاغون فترة انتقالية مدتها ستة أشهر للتخلص التدريجي من الأنظمة المدمجة سابقًا. شدد الرئيس على أن الإدارة لا ترغب في مواصلة التعاون مع الشركة مستقبلًا.
يتركز الخلاف حول دور الذكاء الاصطناعي في الأمن القومي، خاصة في البيئات عالية المخاطر. تشمل هذه البيئات استخدام القوة الفتاكة، ومعالجة المعلومات الحساسة، وأنظمة المراقبة الحكومية. تثير هذه الملفات نقاشًا واسعًا حول أخلاقيات استخدام التقنيات المتقدمة في السياق العسكري.
أكد أمودي أن أدوات شركته لا تُستخدم في المراقبة الجماعية داخل الولايات المتحدة. كما شدد على رفض الشركة تطوير أسلحة مستقلة بالكامل دون إشراف بشري. يعكس هذا الموقف التزامًا معلنًا بضوابط أخلاقية صارمة.
في المقابل، أوضح ألتمان أن من مبادئ السلامة الأساسية لدى OpenAI حظر المراقبة الجماعية المحلية. كما أكد ضرورة بقاء القرار النهائي باستخدام القوة بيد البشر. أشار إلى أن وزارة الدفاع تتبنى هذه المبادئ ضمن أطر قانونية وسياسات معتمدة. ذكر أن الاتفاق الجديد يتضمن إدراج هذه الضوابط بشكل صريح.
دعا ألتمان البنتاغون إلى تطبيق الشروط ذاتها على جميع شركات الذكاء الاصطناعي. يرى أن توحيد المعايير يعزز المنافسة العادلة ويضمن الامتثال للقواعد الأخلاقية.
أكد أن OpenAI ستطوّر ضمانات تقنية إضافية لضمان تشغيل النماذج وفق الاستخدام المتفق عليه.
يعكس الاتفاق توجهًا إستراتيجيًا لدى وزارة الدفاع لتعزيز قدراتها الرقمية. تسعى الوزارة إلى دمج نماذج متقدمة مثل ChatGPT في بيئات تشغيلية محمية.
يمثل هذا التوجه خطوة مؤثرة في مسار التحول الرقمي داخل المنظومة الدفاعية الأميركية. كما يسلط الضوء على تزايد أهمية الذكاء الاصطناعي كعامل حاسم في معادلات الأمن القومي.
بهذا التطور، تدخل OpenAI مرحلة جديدة من الشراكة مع المؤسسات السيادية. يتزامن ذلك مع تصاعد المنافسة بين شركات الذكاء الاصطناعي على العقود الحكومية الكبرى. يبقى السؤال المطروح: هل سيؤدي هذا التحول إلى إعادة رسم خريطة مزودي الذكاء الاصطناعي في القطاع الدفاعي الأميركي؟








