AI بالعربي – متابعات
أعادت تقارير صحفية الجدل حول توظيف الذكاء الاصطناعي في العمليات العسكرية. فقد ذكرت صحيفة “وول ستريت جورنال” أن الجيش الأميركي استعان بنموذج “Claude” من شركة Anthropic خلال عملية توقيف الرئيس الفنزويلي نيكولاس مادورو في كاراكاس الشهر الماضي. واستندت الصحيفة إلى مصادر مطلعة على تفاصيل العملية.
دور نموذج Claude في العملية
بحسب التقرير، استُخدم النموذج لدعم تحليل البيانات وتنسيق المعلومات. ويساعد هذا النوع من النماذج على فرز كميات ضخمة من المعطيات بسرعة. كما يقدّم تقديرات تساعد صناع القرار الميداني. ولم تؤكد وزارة الدفاع الأميركية صحة ما نُشر. واكتفت بعدم التعليق على العمليات الحساسة.
سياسات Anthropic وحدود الاستخدام
تعلن Anthropic أن أدواتها لا تُستخدم في العنف أو تطوير الأسلحة أو المراقبة. وأكدت الشركة أن أي استخدام يجب أن يلتزم بسياساتها. ورفضت التعليق على سيناريوهات عمليات سرية. ويعكس هذا الموقف حرصًا على ضبط تطبيقات الذكاء الاصطناعي. كما يبرز حساسية التعاون بين الشركات والجهات الدفاعية.
شراكة Palantir ومسارات الدمج التقني
دخل نموذج Claude إلى بيئات دفاعية عبر شراكات تقنية. وتُعد Palantir من أبرز الشركات التي تعمل مع مؤسسات الدفاع. وتوفّر منصاتها أدوات لتحليل البيانات وإدارة العمليات. ويسهّل هذا الدمج نقل قدرات الذكاء الاصطناعي إلى الاستخدام المؤسسي. ويزيد ذلك من سرعة الوصول إلى الرؤى التشغيلية.
عقد محتمل وتوترات تنظيمية
تحدثت تقارير عن مراجعة عقد بقيمة 200 مليون دولار مع Anthropic. ويعود ذلك إلى توترات بشأن القيود على الاستخدام العسكري. وتخشى الشركات من توظيف غير مقيد لنماذجها. بينما تسعى الجهات الدفاعية إلى مرونة أعلى. ويكشف هذا التباين عن فجوة بين الحوكمة والاحتياجات التشغيلية.
توسع أميركي في الذكاء الاصطناعي العسكري
تواصل الولايات المتحدة توسيع اعتماد الذكاء الاصطناعي عسكريًا. وتشمل المهام تحليل الوثائق وتشغيل أنظمة ذاتية. ويثير هذا التوسع نقاشًا حول المخاطر. ويركز الجدل على التسليح والمراقبة. كما يتناول حدود الاعتماد على الخوارزميات في قرارات حساسة.
تحذيرات قيادية من الاستخدام القتالي
يحذّر داريو أمودي من الاستخدامات القتالية الذاتية. ويدعو إلى ضوابط أشد على التطبيقات الأمنية. ويرى أن الحوكمة ضرورة لحماية المجتمع. كما يؤكد أهمية الشفافية في التعاقدات. وتدفع هذه المواقف نحو أطر تنظيمية أوضح.
ضغط لفتح الشبكات السرية أمام النماذج
كشفت رويترز عن ضغوط لتمكين النماذج على شبكات سرية. وتشمل الضغوط شركات مثل OpenAI وAnthropic. وتهدف الجهات الدفاعية إلى نشر القدرات عبر مستويات السرية. ويعكس ذلك سباقًا لتحديث البنية الرقمية الدفاعية. كما يطرح أسئلة حول الامتثال والرقابة.
بهذا، يتحول الذكاء الاصطناعي إلى ملف أمني مؤثرًا في السياسات. وتتقاطع فيه اعتبارات الأمن والحوكمة والابتكار. ويظل النقاش مفتوحًا حول التوازن بين الفاعلية والمسؤولية. كما يتزايد الطلب على أطر تنظيمية واضحة تحكم الاستخدامات الحساسة.








