تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

AI بالعربي – متابعات

كشف محللون و3 أوراق أكاديمية أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور، الذي ابتكرته شركة “ميتا” في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وفي ورقة بحثية نشرت في يونيو، اطلعت عليها وكالة “رويترز”، قدّم 6 باحثين صينيين من 3 مؤسسات، منهما مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” لشركة “ميتا” بصفتها قاعدة لما يسمونه ChatGPT.

واستعمل الباحثون نموذجًا سابقًا للغة من “لاما 13 بي” تابعًا لـ”ميتا”، ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج ChatGPT جرى تنقيحه وتحسينه لأداء مهام الحوار، والإجابة عن الأسئلة في المجال العسكري. واتضح أنه يتفوّق على بعض نماذج الذكاء الاصطناعي الأخرى، التي تبلغ قدرتها نحو 90 في المائة تقريبًا، مثل برنامج ChatGPT-4 القوي لشركة OpenAI. ولم يوضح الباحثون كيف قيّموا الأداء، ولم يُحددوا ما إذا كان نموذج الذكاء الاصطناعي قد جرى تطبيقه.

وقال ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون”، والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين، ومنها الذكاء الاصطناعي: “هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيًا، ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدًا تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.

وأتاحت شركة ميتا الاستخدام المفتوح لكثير من نماذجها للذكاء الاصطناعي، ومنها لاما. وتفرض قيودًا على استخدامها، تتضمن شرط أن تطلب الشركات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من ميتا.

وتحظر شروطها أيضًا استخدام النماذج في الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يُراد به “التحريض على العنف والترويج له”.

لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.

وردًا على أسئلة “رويترز”، أشارت «ميتا» إلى سياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.

وقالت مولي مونتغومري، مديرة السياسات العامة في شركة ميتا، لـ”رويترز” في مقابلة عبر الهاتف “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به، ويناقض سياستنا للاستخدام المقبول”.

Related Posts

“ألفابت” تتقدم في سباق الذكاء الاصطناعي وتقترب من كسر حاجز 4 تريليونات دولار

AI بالعربي – متابعات اقتربت “ألفابت” الشركة الأم لعملاق البحث “جوجل” من تحقيق قيمة سوقية تبلغ 4 تريليونات دولار بعد ارتفاع سهمها فوق خمسة في المائة. وبلغ السهم سعر 315.9…

سيطرة “الذكاء الاصطناعي” على حياتنا.. من أفلام الخيال العلمي إلى الواقع

بالعربي – متابعات تشهد شاشات السينما العالمية إنتاج أفلام تتناول سيناريوهات سيطرة الذكاء الاصطناعي على العالم، مستوحاة من خيال علمي أصبح اليوم أقرب إلى الواقع مع التطور التكنولوجي المتسارع. الذكاء…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 62 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 161 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 159 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 183 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 330 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 412 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law