تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

AI بالعربي – متابعات

كشف محللون و3 أوراق أكاديمية أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور، الذي ابتكرته شركة “ميتا” في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وفي ورقة بحثية نشرت في يونيو، اطلعت عليها وكالة “رويترز”، قدّم 6 باحثين صينيين من 3 مؤسسات، منهما مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” لشركة “ميتا” بصفتها قاعدة لما يسمونه ChatGPT.

واستعمل الباحثون نموذجًا سابقًا للغة من “لاما 13 بي” تابعًا لـ”ميتا”، ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج ChatGPT جرى تنقيحه وتحسينه لأداء مهام الحوار، والإجابة عن الأسئلة في المجال العسكري. واتضح أنه يتفوّق على بعض نماذج الذكاء الاصطناعي الأخرى، التي تبلغ قدرتها نحو 90 في المائة تقريبًا، مثل برنامج ChatGPT-4 القوي لشركة OpenAI. ولم يوضح الباحثون كيف قيّموا الأداء، ولم يُحددوا ما إذا كان نموذج الذكاء الاصطناعي قد جرى تطبيقه.

وقال ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون”، والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين، ومنها الذكاء الاصطناعي: “هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيًا، ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدًا تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.

وأتاحت شركة ميتا الاستخدام المفتوح لكثير من نماذجها للذكاء الاصطناعي، ومنها لاما. وتفرض قيودًا على استخدامها، تتضمن شرط أن تطلب الشركات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من ميتا.

وتحظر شروطها أيضًا استخدام النماذج في الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يُراد به “التحريض على العنف والترويج له”.

لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.

وردًا على أسئلة “رويترز”، أشارت «ميتا» إلى سياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.

وقالت مولي مونتغومري، مديرة السياسات العامة في شركة ميتا، لـ”رويترز” في مقابلة عبر الهاتف “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به، ويناقض سياستنا للاستخدام المقبول”.

Related Posts

“السعودية” تقود مبادرة عالمية لبناء القدرات في الذكاء الاصطناعي

AI بالعربي – متابعات دعت المملكة العربية السعودية، وجمهورية كينيا، دول العالم إلى المساهمة في الشبكة العالمية لمراكز بناء قدرات الذكاء الاصطناعي المعلنة، إحدى توصيات الميثاق الرقمي العالمي بدعم منظمة…

باحثو جامعة ساري يستلهمون الدماغ البشري لخفض استهلاك الطاقة في الذكاء الاصطناعي

AI بالعربي – متابعات آلية مستوحاة من الدماغ لحل أزمة الطاقةنجح فريق من الباحثين في جامعة ساري البريطانية في تطوير تقنية جديدة قد تغيّر طريقة عمل نماذج الذكاء الاصطناعي جذريًا.…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 75 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 224 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 317 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 325 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 274 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 312 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟