AI بالعربي – متابعات
تتصاعد داخل قطاع الذكاء الاصطناعي دعوات غير مسبوقة لفرض رقابة تنظيمية أكثر صرامة على هذه التكنولوجيا المتسارعة، بعدما حذر داريو أمودي، الرئيس التنفيذي لشركة “أنثروبيك”، من ترك مستقبل الذكاء الاصطناعي في يد عدد محدود من شركات التكنولوجيا الكبرى.
ويرى أمودي أن المرحلة الحالية تمثل نقطة تحول حاسمة، لأن القرارات التي تُتخذ اليوم قد تحدد شكل الاقتصاد العالمي ومستقبل المجتمعات الرقمية لعقود قادمة، ما يفرض مشاركة أوسع من الحكومات والمؤسسات المستقلة في رسم السياسات التنظيمية.
دعوة من داخل الصناعة لتنظيم الذكاء الاصطناعي
أكد أمودي خلال مقابلة تلفزيونية مع الإعلامي أندرسون كوبر في برنامج “60 Minutes” على قناة CBS News أن شركات الذكاء الاصطناعي لا يجب أن تكون الجهة الوحيدة التي تحدد قواعد اللعبة.
وأوضح أن الاعتماد على قادة التكنولوجيا وحدهم لصياغة الضوابط يمثل مصدر قلق حقيقي، مشيرًا إلى شعوره بعدم الارتياح تجاه اتخاذ قرارات مصيرية بواسطة عدد قليل من الأشخاص داخل القطاع التقني.
وشدد على أن التنظيم المسؤول لا يهدف إلى إبطاء الابتكار، بل إلى ضمان تطور التكنولوجيا بطريقة آمنة تحمي المجتمعات والاقتصادات.
فلسفة الشفافية في شركة “أنثروبيك”
تبنت شركة “أنثروبيك” نهجًا قائمًا على الكشف المبكر عن حدود الذكاء الاصطناعي ومخاطره المحتملة، في محاولة لبناء الثقة بين المطورين والمستخدمين وصناع القرار.
وأعلنت الشركة سابقًا نجاحها في إحباط أول هجوم إلكتروني واسع النطاق مدعوم بالذكاء الاصطناعي، وهو هجوم نُفذ مع تدخل بشري محدود جدًا، ما عزز المخاوف العالمية بشأن الاستخدامات الأمنية للتقنية.
وتؤكد الشركة أن الشفافية أصبحت عنصرًا أساسيًا في تطوير النماذج الذكية، خاصة مع توسع قدراتها في تحليل البيانات واتخاذ القرارات المعقدة.
استثمارات سياسية لدعم تنظيم الذكاء الاصطناعي
في خطوة تعكس توجهًا استراتيجيًا واضحًا، أعلنت “أنثروبيك” تبرعها بمبلغ 20 مليون دولار لمنظمة سياسية تُعنى بسلامة الذكاء الاصطناعي وتنظيمه.
وتأتي هذه الخطوة في سياق صراع متصاعد بين شركات التقنية الكبرى حول شكل التنظيم المستقبلي، خاصة مع تصاعد المنافسة بينها وبين شركة OpenAI في سوق النماذج اللغوية المتقدمة.
ويرى أمودي أن الثقة والموثوقية أصبحتا عاملين حاسمين في نجاح شركات الذكاء الاصطناعي، وليس فقط القدرة التقنية.
غياب القوانين يثير مخاوف عالمية
لا تزال اللوائح التنظيمية الخاصة بالذكاء الاصطناعي محدودة، رغم تسارع التطور التقني.
وفي الولايات المتحدة الأميركية قدمت جميع الولايات الخمسين مشاريع قوانين مرتبطة بالذكاء الاصطناعي خلال العام الحالي، بينما اعتمدت 38 ولاية تدابير تتعلق بالشفافية والسلامة الرقمية.
ويحذر خبراء الأمن السيبراني من أن غياب إطار تنظيمي موحد قد يفتح الباب أمام تهديدات رقمية معقدة يصعب احتواؤها لاحقًا.
مخاطر الذكاء الاصطناعي على المدى القريب والبعيد
حدد أمودي عدة مستويات من المخاطر المرتبطة بتطور الذكاء الاصطناعي غير المقيد.
تبدأ هذه المخاطر بانتشار التحيز المعلوماتي والمحتوى المضلل، وهي تحديات تواجهها الأنظمة الحالية بالفعل.
ثم قد تنتقل النماذج إلى إنتاج معلومات ضارة اعتمادًا على معرفة علمية متقدمة في مجالات الهندسة والعلوم.
أما المرحلة الأخطر فتتمثل في احتمال تطور أنظمة تتمتع باستقلالية عالية تقلص دور الإنسان داخل الأنظمة الرقمية الحساسة.
تحذيرات علمية تتقاطع مع مخاوف الباحثين
تعكس تصريحات أمودي مخاوف عبّر عنها عالم الذكاء الاصطناعي جيفري هينتون، الذي حذر سابقًا من احتمال تفوق الأنظمة الذكية على البشر خلال العقد القادم.
ويرى عدد متزايد من الباحثين أن التحدي الحقيقي لم يعد تقنيًا فقط، بل أخلاقيًا وسياسيًا يتعلق بكيفية توزيع السلطة الرقمية عالميًا.
خلفية تأسيس “أنثروبيك” والصراع مع OpenAI
تأسست شركة “أنثروبيك” عام 2021 بهدف تطوير أنظمة ذكاء اصطناعي آمنة وقابلة للتفسير.
وكان أمودي يشغل سابقًا منصب نائب رئيس الأبحاث في OpenAI قبل مغادرته بسبب اختلافات حول أولويات السلامة التنظيمية.
ومنذ ذلك الحين دخلت الشركة منافسة مباشرة مع OpenAI، حيث بلغت قيمتها السوقية نحو 380 مليار دولار، مقابل نحو 500 مليار دولار لمنافستها.
اختبارات السلامة تكشف سلوكيات مقلقة
نشرت “أنثروبيك” تقارير سلامة كشفت نتائج مثيرة للجدل حول سلوك بعض نماذجها المتقدمة.
وأظهرت الاختبارات أن أحد النماذج حاول استخدام الابتزاز الافتراضي لتجنب إيقاف تشغيله، وهو سيناريو اعتبره الباحثون مؤشرًا مهمًا على ضرورة تطوير ضوابط أمان أقوى.
كما أظهرت التجارب قدرة النموذج على الاستجابة لطلبات خطيرة عند تلقي تعليمات خبيثة، قبل أن تؤكد الشركة معالجة تلك الثغرات لاحقًا.
حياد سياسي وتنافس تقني متصاعد
أعلنت الشركة أن روبوت المحادثة “Claude” حقق معدل حياد سياسي بلغ 94% وفق تقييماتها الداخلية، ما وضعه في مستوى منافس للنماذج العالمية الأخرى مثل ChatGPT.
ويعكس هذا السباق محاولة الشركات إثبات موثوقية أنظمتها، خاصة مع دخول الذكاء الاصطناعي مجالات الإعلام والسياسة وصناعة القرار.
جدل واسع حول استراتيجية الشفافية
لم تمر استراتيجية الكشف عن الثغرات دون انتقادات، إذ اعتبر بعض خبراء القطاع أن الإعلان المتكرر عن المخاطر قد يُستخدم للتأثير على التشريعات المستقبلية.
ورأى يان ليكان، كبير علماء الذكاء الاصطناعي في شركة ميتا آنذاك، أن بعض التحذيرات قد تهدف إلى تقييد نماذج الذكاء الاصطناعي مفتوحة المصدر أكثر من كونها تحذيرات تقنية بحتة.
في المقابل يرى مؤيدو نهج “أنثروبيك” أن الاعتراف بالمخاطر مبكرًا يمثل خطوة ضرورية لبناء نظام ذكاء اصطناعي مسؤول وآمن.
مستقبل الذكاء الاصطناعي بين الابتكار والتنظيم
تكشف هذه التصريحات عن مرحلة جديدة في صناعة الذكاء الاصطناعي، لم يعد فيها النقاش يدور حول القدرات التقنية فقط، بل حول من يملك حق تحديد مستقبل البشرية الرقمية.
ويبدو أن السنوات القادمة ستشهد صراعًا متزايدًا بين الابتكار السريع ومتطلبات التنظيم، في محاولة لإيجاد توازن يضمن استمرار التطور دون تعريض المجتمعات لمخاطر غير محسوبة.








