العلماء يبدون مخاوفهم من أنظمة الذكاء الاصطناعي بعد تجاوزها الخط الأحمر

العلماء يبدون مخاوفهم من أنظمة الذكاء الاصطناعي بعد تجاوزها الخط الأحمر

AI بالعربي – متابعات

يشعر العلماء بقلق بالغ بشأن الذكاء الاصطناعي لأن أنظمته الرائدة تجاوزت ما يسمونه “الخط الأحمر للتكاثر الذاتي”، ويقول العلماء إن مثل هذا التقدم “يعد إشارة مبكرة للذكاء الاصطناعي المارق”.

“التكاثر الذاتي” خط أحمر لأنظمة الذكاء الاصطناعي

وحسب موقع “builder.ai” لأخبار الذكاء الاصطناعي، كتب العلماء من جامعة فودان في الصين في ورقة بحثية نُشرت على قاعدة بيانات ما قبل الطباعة ” arXiv “: “إن التكاثر الذاتي الناجح دون مساعدة بشرية هو الخطوة الأساسية للذكاء الاصطناعي للتفوق على البشر. ولهذا السبب تم الاعتراف على نطاق واسع باعتبار التكاثر الذاتي، أحد المخاطر القليلة التي تشكل خطًا أحمر لأنظمة الذكاء الاصطناعي الرائدة”.

ووفقًا “builder.ai”، يشير مصطلح “حدود الذكاء الاصطناعي – Frontier AI” إلى التطورات والابتكارات في مجال الذكاء الاصطناعي التي تدفع قدرات أكثر النماذج تقدمًا، ويشمل ذلك الابتكارات في التعلم الآلي والشبكات العصبية والحوسبة المعرفية، بهدف تعزيز قدرات الذكاء الاصطناعي عبر مختلف الصناعات.

“التكاثر الذاتي” خط أحمر لأنظمة الذكاء الاصطناعي

يعني “التكاثر الذاتي”، نجاح أنظمة الذكاء الاصطناعي في إنشاء نسخة حية ومنفصلة من نفسيهما على التوالي، يمكن أن تعمل بعيدًا عن سيطرة البشر”.

وكجزء من بحثهم، اكتشف العلماء أن نظامين للذكاء الاصطناعي هما؛ نظام ” Meta’s Llama31-70B-Instruct ” ونظام ” Alibaba’s Qwen25-72B-Instruct “، تجاوزا بالفعل الخط الأحمر للتكرار الذاتي، وفي 50 في المئة و90 في المئة من التجارب التجريبية، نجحا في إنشاء نسخة حية ومنفصلة من نفسيهما على التوالي”.

لماذا يثير “التكاثر الذاتي” قلق العلماء؟

لماذا هذا مثير للقلق؟ لأنه، كما ذكروا في بحثهم، يعني هذا أن أنظمة الذكاء الاصطناعي يمكن أن تستخدم “التكرار الذاتي لإنشاء سلسلة من النسخ المتماثلة لهم، لتعزيز القدرة على البقاء، وتجنب إغلاق النظام، مما قد يؤدي في النهاية إلى وجود عدد غير منضبط من أنظمة الذكاء الاصطناعي”.

“إذا تم ترك مثل هذا الخطر الأسوأ غير معروف للمجتمع البشري، فسنفقد في النهاية السيطرة على أنظمة الذكاء الاصطناعي الرائدة: ستتولى السيطرة على المزيد من أجهزة الحوسبة، وتشكل نوعًا من الذكاء الاصطناعي وتتواطأ مع بعضها بعضًا ضد البشر”، حذروا.

علماء: حذرنا مرارًا وتكرارًا

ويقول العلماء، لا يمكن لأحد أن يقول إننا لم نحذر من أن شيئًا كهذا قد يحدث. مرارًا وتكرارًا.

والعام الماضي، أفاد باحثون في معهد ماساتشوستس للتكنولوجيا بأن أنظمة الذكاء الاصطناعي قادرة بالفعل على خداع البشر.

Related Posts

مؤتمر “إعلام الذكاء الاصطناعي” يستعرض تحديات الممارسين الإعلاميين في العصر الرقمي

AI بالعربي – متابعات استعرضت جلسة حوارية بعنوان “تحديات الممارسين الإعلاميين المهنية في عصر الذكاء الاصطناعي” ضمن أعمال المؤتمر الدولي العاشر للجمعية السعودية للإعلام والاتصال تحت شعار “إعلام الذكاء الاصطناعي..…

خبراء يناقشون في مؤتمر “إعلام الذكاء الاصطناعي” أبرز التحديات التي تواجه المؤسسات الإعلامية في عصر الخوارزميات

AI بالعربي – متابعات شهد اليوم الأول من المؤتمر الدولي العاشر للجمعية السعودية للإعلام والاتصال انعقاد جلسة الخبراء التي ناقشت التحولات العميقة في صناعة الإعلام في ظل التطور المتسارع لتقنيات…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 599 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 632 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 732 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 811 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 801 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 897 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر