البنتاجون يدعو مطوري الذكاء الاصطناعي لمزيد من الشفافية
AI بالعربي – متابعات
دعا كبير مسؤولي الذكاء الاصطناعي في وزارة الدفاع الأميركية، إلى مزيد من الشفافية من جانب مطوري الذكاء الاصطناعي عن كيفية عمل تقنياتهم.
ووفقًا لموقع “بلومبرج”، يعتقد كريغ مارتيل أن القسم يحتاج إلى معرفة المزيد عن أدوات الذكاء الاصطناعي قبل الالتزام الكامل باستخدامها.
ويريد مارتيل من الشركات أن تشارك الرؤى حول كيفية إنشاء برامج الذكاء الاصطناعي الخاصة بها حتى تشعر وزارة الدفاع الأميركية “بالراحة والأمان عند اعتمادها”.
وتعتمد برامج الذكاء الاصطناعي، حاليًا على نماذج اللغات الكبيرة (LLMs)، والتي تستخدم مجموعات بيانات ضخمة لتشغيل أدوات مثل برامج الدردشة الآلية ومولدات الصور. ومع ذلك، غالبًا ما يتم تقديم هذه الخدمات دون الكشف عن أعمالها الداخلية، مما يجعل من الصعب على المستخدمين فهم كيفية وصول التكنولوجيا إلى القرارات أو كيفية تحسنها بمرور الوقت.
قلق أميركي
أعرب مارتيل عن قلقه بشأن نقص المعلومات المتعلقة بالبيانات المستخدمة في هذه النماذج. كما سلط الضوء على المخاطر التي تشكلها أنظمة الذكاء الاصطناعي، والتي غالبًا ما تفشل الشركات في الكشف عنها.
ولمعالجة هذه القضايا، يدعو مارتيل رواد الصناعة والأكاديميين إلى ندوة في واشنطن في شهر فبراير المقبل.
تهدف الندوة إلى تحديد الاستخدامات المناسبة للذكاء الاصطناعي داخل وزارة الدفاع “البنتاجون”، وتطوير المعايير المتعلقة بالقضايا الحساسة.
حدد فريق مارتيل بالفعل 200 استخدام محتمل للذكاء الاصطناعي داخل الوزارة، ويؤكد أنهم لا يريدون إيقاف استخدامه تمامًا، بل يريدون فهم فوائده ومخاطره.
لدى البنتاجون أكثر من 800 مشروع للذكاء الاصطناعي قيد التنفيذ، بعضها يتضمن أنظمة أسلحة. ونظرًا للمخاطر الكبيرة التي تنطوي عليها هذه المشاريع، فإن البنتاجون سيطبق معايير أعلى فيما يتعلق بكيفية استخدامه للنماذج الخوارزمية مقارنة بالقطاع الخاص.
ويعتقد مارتيل أن الحصول على نتائج غير دقيقة هو ببساطة أمر غير مقبول، خاصة في المواقف الحرجة التي تكون فيها “حياة البشر على المحك”.
من خلال السعي إلى مزيد من الشفافية والفهم لأدوات الذكاء الاصطناعي، تهدف وزارة الدفاع الأميركية إلى ضمان التنفيذ المسؤول والفعال لتكنولوجيا الذكاء الاصطناعي في عملياتها.