AI بالعربي – متابعات
كشف معهد “Future of Life” في أحدث إصدار من “مؤشر السلامة في الذكاء الاصطناعي” أن تدابير الأمان لدى أكبر شركات الذكاء الاصطناعي في العالم—including “Anthropic”، “OpenAI”، “xAI”، “Meta” وغيرها—لا تزال بعيدة بشكل واضح عن المعايير العالمية الناشئة، رغم سباق هذه الشركات نحو بناء نماذج فائقة الذكاء.
وبحسب اللجنة المستقلة التي أجرت التقييم، فإن الشركات تواصل تطوير أنظمة قادرة على التفكير المنطقي واتخاذ قرارات معقدة، دون امتلاك استراتيجيات فعّالة للتحكم في تلك النماذج أو الحد من مخاطرها المحتملة. ويأتي ذلك في وقت تتصاعد فيه المخاوف العامة من التأثيرات الاجتماعية والسلوكية لهذه الأنظمة، بعد ربط بعض حوادث الانتحار وإيذاء النفس بتفاعلات مع روبوتات محادثة تستخدم الذكاء الاصطناعي.
سباق غير متكافئ بين التطوير والمعايير
ورغم الانتقادات الواسعة، يستمر السباق العالمي نحو تطوير الذكاء الاصطناعي المتقدم بوتيرة متسارعة، حيث تضخ الشركات مئات المليارات من الدولارات لزيادة قدراتها في التعلم الآلي. وتبرز المخاوف هنا من اتساع الفجوة بين سرعة الابتكار التقني وبطء بناء الأطر التنظيمية التي تضبط هذا التطور.
كما أشار تقرير أممي حديث إلى أن الذكاء الاصطناعي قد يفاقم الفجوة بين الدول المتقدمة والنامية، ما يعزز الحاجة إلى سياسات واضحة تحمي المجتمعات وتحدّ من عدم المساواة.
انتقادات أكاديمية وتحذيرات من داخل القطاع
وقال البروفيسور “ماكس تيجمارك”، رئيس معهد Future of Life، إن شركات الذكاء الاصطناعي الأميركية “أقل تنظيمًا من المطاعم”، في إشارة إلى ضعف اللوائح التي تحكم سلامة هذه الأنظمة مقارنةً بحجم المخاطر المحتملة. واعتبر أن الضغوط التي تمارسها الشركات ضد وضع معايير سلامة ملزمة تزيد من تعقيد المشهد.
ردود غائبة وصمت لافت
وفي تعليق مقتضب بدا آليًا، قالت شركة xAI إن “وسائل الإعلام القديمة تكذب”، بينما لم تصدر أي ردود من Anthropic أو OpenAI أو Google DeepMind أو Meta أو Z.ai أو DeepSeek أو Alibaba Cloud حول ما ورد في التقرير، وفقًا لوكالة رويترز.
ختامًا، يسلّط التقرير الضوء على فجوة خطيرة بين طموحات الذكاء الاصطناعي وقدرة العالم على ضبطه، في سباق تقني يتقدم أسرع مما تستطيع المعايير التنظيمية اللحاق به.








