الرئيس السابق لـ”جوجل”: الذكاء الاصطناعي لا يقل خطرًا عن الأسلحة النووية

الرئيس السابق لـ"جوجل": الذكاء الاصطناعي لا يقل خطرًا عن الأسلحة النووية

آدم سميث

وصف إريك شميدت الرئيس التنفيذي السابق لشركة “جوجل”، الذكاء الاصطناعي بأنه من الخطورة بمكان، بحيث يوازي خطر الأسلحة النووية.

وقال شميدت في حديثه أمام “منتدى آسبن الأمني” Aspen Security Forum “مؤتمر سنوي يستضيف كبار القادة الدوليين، ويعنى بالتحديات الأكثر إلحاحاً في العالم” في وقت سابق من هذا الأسبوع: “أشعر بأنني كنت ساذجاً في شأن تأثير ما كنا نفعله”، لكنه رأى أن “المعلومات التي تم التوصل إليها هي قوية للغاية، وأنه يتعين على الحكومة والمؤسسات الأخرى، ممارسة مزيد من الضغط على الجهات المعنية في قطاع التكنولوجيا، حرصاً على توافقها مع قيمنا الأخلاقية”.

وأضاف، “إن النفوذ الذي تتمتع به التكنولوجيا هو جدي للغاية. وإذا ما فكرتم في الطريقة التي يمكن التفاوض من خلالها على اتفاق يتعلق بالذكاء الاصطناعي، فيجب أولاً أن يكون لدينا تقنيون ملمون بالتطورات المستقبلية في هذه الصناعة من جهة، ومن ثم الوعي الكافي للخوض في مثل هذه المحادثات من جهة أخرى”.

وتابع شميدت يقول: “لنفترض أننا نريد إجراء محادثة مع الصين في معاهدة ما مرتبطة بمناقشة المفاجآت التي يمكن أن ينطوي عليها الذكاء الاصطناعي. قد يبدو أمراً معقولاً جداً، لكن كيف سنفعل ذلك؟ من هم الأفراد المستعدون للتعاون معنا من جانب حكومة الولايات المتحدة؟ ولعل الأمر أسوأ حالاً من الجانب الصيني، أليس كذلك؟ فبمن يمكن أن نتصل؟ أعتقد أننا لسنا مستعدين بعد لإجراء المفاوضات اللازمة في هذا الإطار”.

وأردف الرئيس التنفيذي السابق لشركة “جوجل” قائلًا إن “في خمسينيات وستينيات القرن الماضي، توصلنا إلى عالم يتفق على قاعدة ’لا مفاجآت’ في ما يتعلق بالتجارب النووية التي تم حظرها في نهاية المطاف. لقد شكل ذلك مثالاً على توازن الثقة، أو انعدام الثقة، هذا ما كانت عليه قاعدة الـ’لا مفاجآت’”.

لكنه استدرك: “أما الآن، فيعتريني قلق شديد من أن نظرة الولايات المتحدة للصين على أنها فاسدة أو شيوعية أو أي شيء آخر، وكذلك نظرة الصين للولايات المتحدة على أنها فاشلة، قد تجعل الناس يتخوفون من أن الجانبين يخططان لشيء ما”، الأمر الذي من شأنه أن يوجد بيئة محفوفة بالألغاز… إن التسلح أو الاستعداد لأمر ما، قد يسهم في تحفيز جهات أخرى على المنافسة”.

تجدر الإشارة إلى أنه سبق أن تم مرارًا التطرق إلى قدرات الذكاء الاصطناعي على مر الأعوام. ولطالما تحدث إيلون ماسك الرئيس التنفيذي لشركة “تسلا” عن أن الذكاء الاصطناعي من المحتمل جداً أن يشكل تهديدًا للبشرية. وأخيرًا فصلت شركة “غوغل” أحد مهندسي البرمجيات لديها، ادعى أن الذكاء الاصطناعي لعملاق التكنولوجيا، أصبح قادرًا على الوعي والإدراك الكامل لمحيطه.

مع ذلك، ذكر الخبراء الناس في كثير من الأحيان بأن مسألة الذكاء الاصطناعي ترتبط بما يتم تدريبه من أجله، وبالطريقة التي من خلالها يستخدمه البشر. وإذا  كانت الخوارزميات التي تدرب هذه الأنظمة تستند إلى بيانات معيبة أو قائمة على التفرقة العنصرية أو الجنسية، فلا بد من أن تعكس النتائج ذلك.

Related Posts

طفرة اكتتابات الذكاء الاصطناعي الصينية تنعش بورصة “هونج كونج”

AI بالعربي – متابعات تشهد بورصة هونج كونج نشاطًا لافتًا تقوده شركات الذكاء الاصطناعي الصينية، في دلالة على تحوّل واضح في توجهات المستثمرين نحو قطاع التكنولوجيا المتقدمة. هذا الانتعاش يعكس…

خبراء يحذّرون من الاعتراف القانوني بالذكاء الاصطناعي في هذه المرحلة

AI بالعربي – متابعات يشهد العالم نقاشًا متصاعدًا حول مستقبل الذكاء الاصطناعي وحدود التعامل القانوني معه، في ظل تحذيرات علمية من منح هذه الأنظمة أي صفة قانونية قد تغيّر ميزان…

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات

الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

  • نوفمبر 29, 2025
  • 177 views
الذكاء الاصطناعي يشكل اقتصاداتنا.. ما النتائج؟

الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

  • نوفمبر 22, 2025
  • 215 views
الذكاء الاصطناعي يؤجج حرب التضليل الإعلامي

الذكاء الاصطناعي أَضحى بالفعل ذكيًا

  • نوفمبر 10, 2025
  • 300 views
الذكاء الاصطناعي أَضحى بالفعل ذكيًا

في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

  • نوفمبر 8, 2025
  • 311 views
في زمن التنظيمات: هل تستطيع السعودية أن تكتب قواعد لعبة الذكاء الاصطناعي؟

“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

  • أكتوبر 30, 2025
  • 332 views
“تنانين الذكاء الاصطناعي” في الصين وغزو العالم

الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر

  • أكتوبر 12, 2025
  • 457 views
الذكاء الاصطناعي في الحياة المعاصرة.. ثورة علمية بين الأمل والمخاطر