تطوير نموذج ذكاء اصطناعي لأغراض عسكرية باستخدام ميتا

AI بالعربي – متابعات

كشف محللون و3 أوراق أكاديمية أن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستغل نموذج “لاما” المتاح للجمهور، الذي ابتكرته شركة “ميتا” في تطوير أداة ذكاء اصطناعي، لاستخدامها في تطبيقات عسكرية محتملة.

وفي ورقة بحثية نشرت في يونيو، اطلعت عليها وكالة “رويترز”، قدّم 6 باحثين صينيين من 3 مؤسسات، منهما مؤسستان تابعتان لأكاديمية العلوم العسكرية البحثية الرائدة في جيش التحرير الشعبي، تفاصيل عن استخدامهم نسخة مبكرة من برنامج “لاما” لشركة “ميتا” بصفتها قاعدة لما يسمونه ChatGPT.

واستعمل الباحثون نموذجًا سابقًا للغة من “لاما 13 بي” تابعًا لـ”ميتا”، ودمجوا معاييرهم الخاصة لبناء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية لجمع ومعالجة المعلومات الاستخباراتية، وتقديم معلومات دقيقة وموثوقة لاتخاذ القرارات في العمليات.

وذكرت الدراسة أن برنامج ChatGPT جرى تنقيحه وتحسينه لأداء مهام الحوار، والإجابة عن الأسئلة في المجال العسكري. واتضح أنه يتفوّق على بعض نماذج الذكاء الاصطناعي الأخرى، التي تبلغ قدرتها نحو 90 في المائة تقريبًا، مثل برنامج ChatGPT-4 القوي لشركة OpenAI. ولم يوضح الباحثون كيف قيّموا الأداء، ولم يُحددوا ما إذا كان نموذج الذكاء الاصطناعي قد جرى تطبيقه.

وقال ساني تشيونج، الزميل المشارك في مؤسسة “جيمس تاون”، والمتخصص في التكنولوجيا الناشئة ومزدوجة الاستخدام في الصين، ومنها الذكاء الاصطناعي: “هذه المرة الأولى التي تتوفر فيها أدلة قوية على أن خبراء الجيش الصيني كانوا يبحثون منهجيًا، ويحاولون الاستفادة من قوة برامج نماذج اللغة الكبيرة مفتوحة المصدر، وتحديدًا تلك التي تنتجها شركة ميتا، لأغراض عسكرية”.

وأتاحت شركة ميتا الاستخدام المفتوح لكثير من نماذجها للذكاء الاصطناعي، ومنها لاما. وتفرض قيودًا على استخدامها، تتضمن شرط أن تطلب الشركات التي تضم أكثر من 700 مليون مستخدم الحصول على ترخيص من ميتا.

وتحظر شروطها أيضًا استخدام النماذج في الصناعات أو التطبيقات العسكرية أو الحربية أو النووية أو التجسس وغيرها من الأنشطة الخاضعة لضوابط التصدير الدفاعية الأميركية، فضلاً عن تطوير الأسلحة والمحتوى الذي يُراد به “التحريض على العنف والترويج له”.

لكن، لأن نماذج “ميتا” عامة، فليس لدى الشركة إلا وسائل محدودة لفرض هذه الشروط.

وردًا على أسئلة “رويترز”، أشارت «ميتا» إلى سياسة الاستخدام المقبولة، وقالت إنها اتخذت إجراءات لمنع سوء الاستخدام.

وقالت مولي مونتغومري، مديرة السياسات العامة في شركة ميتا، لـ”رويترز” في مقابلة عبر الهاتف “أي استخدام لنماذجنا من جيش التحرير الشعبي غير مصرح به، ويناقض سياستنا للاستخدام المقبول”.

Related Posts

مايكروسوفت تطور نظام ذكاء اصطناعي يُشخّص الأمراض أفضل من الأطباء

مايكروسوفت تطور نظام ذكاء اصطناعي يُشخّص الأمراض أفضل من الأطباء AI بالعربي – متابعات أعلنت شركة مايكروسوفت عن تحقيق تقدم نوعي في مجال الذكاء الاصطناعي الطبي، حيث كشفت عن تطوير…

“ميتا” تؤسس مختبرًا لتطوير ذكاء اصطناعي يتجاوز قدرات الإنسان

“ميتا” تؤسس مختبرًا لتطوير ذكاء اصطناعي يتجاوز قدرات الإنسان AI بالعربي – متابعات كشف مارك زوكربيرغ، الرئيس التنفيذي لشركة “ميتا”، عن إطلاق وحدة جديدة متخصصة في تطوير ما يُعرف بـ”الذكاء…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

You Missed

مايكروسوفت تطور نظام ذكاء اصطناعي يُشخّص الأمراض أفضل من الأطباء

  • من admin
  • يوليو 2, 2025
  • 2 views
مايكروسوفت تطور نظام ذكاء اصطناعي يُشخّص الأمراض أفضل من الأطباء

“ميتا” تؤسس مختبرًا لتطوير ذكاء اصطناعي يتجاوز قدرات الإنسان

  • من admin
  • يوليو 2, 2025
  • 4 views
“ميتا” تؤسس مختبرًا لتطوير ذكاء اصطناعي يتجاوز قدرات الإنسان

“بايدو” تطلق مولد فيديو بالذكاء الاصطناعي مخصصًا للشركات وتحدّث محرك بحثها

  • من admin
  • يوليو 2, 2025
  • 4 views
“بايدو” تطلق مولد فيديو بالذكاء الاصطناعي مخصصًا للشركات وتحدّث محرك بحثها

تحليل التحيزات الثقافية في النماذج اللغوية.. هل اللغة بريئة؟

  • من admin
  • يوليو 2, 2025
  • 1 views
تحليل التحيزات الثقافية في النماذج اللغوية.. هل اللغة بريئة؟

“الأنظمة التكيفية الفورية”.. ذكاء يصحح نفسه أثناء التشغيل

  • من admin
  • يوليو 2, 2025
  • 2 views
“الأنظمة التكيفية الفورية”.. ذكاء يصحح نفسه أثناء التشغيل

كيف يتعلم الذكاء الاصطناعي من “الندرة المعلوماتية”؟

  • من admin
  • يوليو 2, 2025
  • 2 views
كيف يتعلم الذكاء الاصطناعي من “الندرة المعلوماتية”؟