تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

AI بالعربي – متابعات

كشف محللون و3 أوراق أكاديمية أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور، الذي ابتكرته شركة “ميتا” في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وفي ورقة بحثية نشرت في يونيو، اطلعت عليها وكالة “رويترز”، قدّم 6 باحثين صينيين من 3 مؤسسات، منهما مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” لشركة “ميتا” بصفتها قاعدة لما يسمونه ChatGPT.

واستعمل الباحثون نموذجًا سابقًا للغة من “لاما 13 بي” تابعًا لـ”ميتا”، ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج ChatGPT جرى تنقيحه وتحسينه لأداء مهام الحوار، والإجابة عن الأسئلة في المجال العسكري. واتضح أنه يتفوّق على بعض نماذج الذكاء الاصطناعي الأخرى، التي تبلغ قدرتها نحو 90 في المائة تقريبًا، مثل برنامج ChatGPT-4 القوي لشركة OpenAI. ولم يوضح الباحثون كيف قيّموا الأداء، ولم يُحددوا ما إذا كان نموذج الذكاء الاصطناعي قد جرى تطبيقه.

وقال ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون”، والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين، ومنها الذكاء الاصطناعي: “هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيًا، ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدًا تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.

وأتاحت شركة ميتا الاستخدام المفتوح لكثير من نماذجها للذكاء الاصطناعي، ومنها لاما. وتفرض قيودًا على استخدامها، تتضمن شرط أن تطلب الشركات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من ميتا.

وتحظر شروطها أيضًا استخدام النماذج في الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يُراد به “التحريض على العنف والترويج له”.

لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.

وردًا على أسئلة “رويترز”، أشارت «ميتا» إلى سياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.

وقالت مولي مونتغومري، مديرة السياسات العامة في شركة ميتا، لـ”رويترز” في مقابلة عبر الهاتف “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به، ويناقض سياستنا للاستخدام المقبول”.

Related Posts

“إيلون ماسك”: الذكاء الاصطناعي سيجعل البشر يبدون مثل القرود

AI بالعربي – متابعات أطلق إيلون ماسك، الرئيس التنفيذي لشركتي “تسلا” و”سبيس إكس”، تحذيرًا قويًا بشأن تسارع تطور الذكاء الاصطناعي. وقال إن العالم يقترب من لحظة الوصول إلى “الذكاء الخارق”…

البيانات الرديئة تفسد عقول الذكاء الاصطناعي.. دراسة تحذر من “تسميم رقمي” يغيّر سلوك النماذج

AI بالعربي – متابعات حذّرت دراسة علمية حديثة من مخاطر تغذية أنظمة الذكاء الاصطناعي التوليدية ببيانات رديئة أو سطحية قادمة من وسائل التواصل الاجتماعي، مؤكدة أن ذلك قد يؤدي إلى…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 69 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 221 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

  • أكتوبر 1, 2025
  • 311 views
حول نظرية القانون المشتغل بالكود “الرمز” Code-driven law

الإعلام.. و”حُثالة الذكاء الاصطناعي”

  • سبتمبر 29, 2025
  • 322 views
الإعلام.. و”حُثالة الذكاء الاصطناعي”

تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

  • سبتمبر 26, 2025
  • 269 views
تطبيقات الذكاء الاصطناعي.. وتساؤلات البشر

كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟

  • سبتمبر 24, 2025
  • 302 views
كيف يغيّر الذكاء الاصطناعي «العمليات الأمنية»؟