عرابة الذكاء الاصطناعي: سياسة الـAI يجب ألا تستند إلى الخيال العلمي

AI بالعربي – متابعات

حددت فاي فاي لي، عالمة الكمبيوتر بجامعة ستانفورد ومؤسسة شركة ناشئة والمعروفة باسم “عرابة الذكاء الاصطناعي”، ثلاثة مبادئ أساسية لمستقبل صناعة السياسات المتعلقة بالذكاء الاصطناعي، قبل قمة عمل الذكاء الاصطناعي التي ستعقد في باريس الأسبوع المقبل.

وقالت لي إن السياسة يجب أن تستند إلى “العلم، وليس الخيال العلمي”، بعبارة أخرى، يجب على صناع السياسات التركيز على الواقع الحالي للذكاء الاصطناعي، وليس على السيناريوهات المستقبلية العظيمة، “سواء كانت يوتوبيا أو نهاية العالم”.

وأوضحت لي “إنه من الأهمية أن يفهم صناع السياسات أن برامج الدردشة الآلية وبرامج الطيار المساعد، ليست أشكالًا من الذكاء مع النوايا أو الإرادة الحرة أو الوعي، حتى يتمكنوا من تجنب “تشتيت السيناريوهات البعيدة المنال” والتركيز بدلاً من ذلك على التحديات الحيوية”، بحسب ما نقله موقع “تك كرانش” عنها.

وزعمت أن السياسة يجب أن تكون عملية، وليس أيديولوجية، وهو ما يعني أنه يجب كتابتها للحد من العواقب غير المقصودة مع تحفيز الابتكار.

ولفتت لي إلى إن هذه السياسة يجب أن تعمل على تمكين نظام الذكاء الاصطناعي بأكمله – بما في ذلك مجتمعات المصادر المفتوحة والأوساط الأكاديمية.

وتابعت: “إن الوصول المفتوح إلى نماذج الذكاء الاصطناعي والأدوات الحاسوبية أمر بالغ الأهمية للتقدم”، إن تقييده من شأنه أن يخلق حواجز ويبطئ الابتكار، وخاصة بالنسبة للمؤسسات الأكاديمية والباحثين الذين لديهم موارد أقل من نظرائهم في القطاع الخاص”.

اترك رد

Your email address will not be published.