تصدع في وادي السيليكون .. الذكاء الاصطناعي قوة أم كارثة؟

24

ريتشارد ووترز

في العام الماضي، أصبح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، تجسيدا للتناقض في قلب الذكاء الاصطناعي.
مدعوما بالنشوة التي أعقبت إطلاق برنامج الدردشة ChatGPT الذي يعمل بالذكاء الاصطناعي قبل 12 شهرا، أخذ رجل الأعمال البالغ من العمر 38 عاما تفاؤل وادي السيليكون بعلامته التجارية في جولة عالمية للقاء رؤساء الدول وتعزيز إمكانات الذكاء الاصطناعي.

لكن في الوقت نفسه، أيضا أطلق تحذيرا: إن أنظمة الذكاء الاصطناعي المتقدمة مثل تلك التي تأمل شركة أوبن أيه آي في بنائها يوما ما قد تؤدي إلى انقراض الجنس البشري. لقد ترك هذا التفاوت الصارخ  كثيرا من المتفرجين يتساءلون عن سبب تسابق شركات مثل أوبن أيه آي لتكون أول من يبني تكنولوجيا جديدة قد تكون كارثية. لقد تجلى ذلك أيضا بشكل كامل الأسبوع الماضي، حيث جرى بداية طرد رئيس شركة أوبن أيه آي من وظيفته، ثم أعيد إلى منصبه بعد التهديد بالانشقاق الجماعي من قبل موظفي شركة الذكاء الاصطناعي الناشئة ومقرها سان فرانسيسكو.

لم يشرح الأعضاء الأربعة في مجلس إدارة شركة أوبن أيه آي الذين طردوا ألتمان السبب المباشر وراء ذلك، باستثناء القول إنه لم يكن “صريحا بشكل مستمر” في تعاملاته معهم. لكن التوترات كانت تتصاعد داخل الشركة لبعض الوقت، حيث اصطدم طموح ألتمان لتحويل شركة أوبن أيه آي إلى القوة التكنولوجية التالية في وادي السيليكون بالمهمة التأسيسية للشركة المتمثلة في وضع السلامة في المقام الأول. أدت إعادة ألتمان إلى منصبه في وقت متأخر من الثلاثاء إلى تخفيف التوتر في هذه الدراما – على الأقل في الوقت الحالي. وأدى التغيير الجذري في مجلس الإدارة إلى جلب أعضاء أكثر خبرة، ممثلين بشخص الرئيس السابق لشركة تويتر، بريت تايلور، ووزير الخزانة الأمريكي السابق، لاري سامرز. ويجري النظر في إجراء تغييرات على طريقة إدارة الشركة. لكن لم تتم تسوية أي شيء، وفي الوقت الحالي، مع تولي ألتمان المسؤولية مرة أخرى رغم تجريده من مقعده في مجلس الإدارة، فقد عادت الأمور إلى طبيعتها.

تم إطلاق أوبن أيه آي كشركة أبحاث مهمتها بناء ذكاء اصطناعي آمن لمصلحة البشرية جميعا. لكن مسرحية الأيام الأخيرة تشير إلى أنها فشلت في التعامل مع النجاح الضخم الذي نتج عن التقدم التكنولوجي الذي حققته. كما أنها ألقت بالسؤال الملح عن كيفية السيطرة على الذكاء الاصطناعي: هل كانت الأزمة ناجمة عن خلل في تصميم الشركة، ما يعني أنها لم يكن لها تأثير يذكر في آفاق المحاولات الأخرى لتحقيق التوازن بين سلامة الذكاء الاصطناعي والسعي لتحقيق الأرباح؟ أم أنها لمحة عن صدع أوسع في الصناعة له آثار خطيرة في مستقبلها – ومستقبلنا؟ عندما أسست شركة أوبن أيه آي، أدرك مهندسوها “أن الدافع التجاري يمكن أن يؤدي إلى كارثة”، كما يقول ستيوارت راسل، وهو أستاذ علوم الحاسوب في جامعة كاليفورنيا، بيركلي، الذي كان من أوائل الذين حذروا بشأن المخاطر الوجودية للذكاء الاصطناعي. “لقد استسلموا الآن للدافع التجاري بأنفسهم”.

صدام معتقدات

سلطت هذه الدراما في شركة أوبن أيه آي الضوء على التوتر بين مجموعتين من المعتقدات التي برزت إلى الواجهة في وادي السيليكون، حيث تحول ما يسمى بالذكاء الاصطناعي التوليدي ـ التكنولوجيا التي تسمح لبرمجية شات جي بي تي بإنتاج المحتوى الإبداعي ـ من مشروع بحثي مثير للاهتمام إلى التكنولوجيا الجديدة الواعدة في الصناعة في أعوام. أحدهما هو العلامة التجارية المألوفة للرأسمالية التكنولوجية المتفائلة التي ترسخت في شمال كاليفورنيا. وهذا يعني أنه مع تطبيق كميات كبيرة من رأس المال المغامر والطموح الكبير، فإن أي فكرة ثورية بما فيه الكفاية يمكن أن تسيطر على العالم – أو على الأقل، تطيح ببعض الشركات الحالية النائمة. بصفته رئيسا سابقا لشركة وأي كومبيناتور، أبرز حاضنة للشركات الناشئة في المنطقة، كان ألتمان على دراية كاملة بكيفية عمل هذه العملية.

أما الفلسفة الأخرى، الأكثر تشاؤما، فتدعو إلى الحذر الذي عادة ما يكون أقل شيوعا في وادي السيليكون. ولكونها معروفة بالمدى الطويل، فإنها تقوم على الاعتقاد بأن مصالح الأجيال اللاحقة، التي تمتد إلى المستقبل البعيد، يجب أن تؤخذ في الحسبان في القرارات التي يتم اتخاذها اليوم. والفكرة هي فرع من الإيثار الفاعل، وهي الفلسفة التي صاغها الفيلسوفان في جامعة أكسفورد، ويليام ماكاسكيل وتوبي أورد، اللذان يسعى أتباعهما إلى تعظيم تأثيرهما في الكوكب لتحقيق أقصى قدر من الخير. ويهدف أصحاب الرؤية طويلة المدى إلى تقليل احتمالية وقوع كوارث وجودية من شأنها أن تمنع ولادة أجيال المستقبل ـ وأصبحت المخاطر التي يمثلها الذكاء الاصطناعي الشرير تشكل مصدر قلق رئيسا.

لقد كانت متطلبات رأس المال هي التي جلبت هذين النظامين الفكريين إلى هذه المعارضة المفاجئة داخل شركة أوبن أيه آي. عندما أسست في 2015، وكان ألتمان وإيلون ماسك أول رئيسين مشاركين لها، تم إطلاقها بمهمة سامية تتمثل في قيادة البحث في بناء ذكاء اصطناعي شبيه بالبشر بشكل آمن. اشتملت الطريقة الأساسية التي اتبعها الباحثون العاملون فيها هي إنشاء نماذج لغوية أكبر من أي وقت مضى، الأمر الذي تطلب بدوره مبالغ كبيرة من رأس المال. بحلول 2019، أدت الحاجة إلى النقد إلى حصول شركة أوبن أيه آي على استثمار بقيمة مليار دولار من شركة مايكروسوفت. رغم أن هذا أدى إلى إنشاء شركة تابع تجارية جديدة تستغل التكنولوجيا الأساسية لشركة أوبن أيه آي، إلا أن المؤسسة بأكملها تركت تحت سيطرة مجلس إدارة غير ربحي ظلت مسؤوليته الأساسية هي التأكد من استخدام الذكاء الاصطناعي المتقدم لمصلحة البشرية.

اثنان من أعضاء مجلس الإدارة الأربعة الذين قاموا في النهاية بإقالة ألتمان – هيلين تونر، مديرة الاستراتيجية في مركز الأمن والتكنولوجيا الناشئة، وتاشا ماكولي، رائدة الأعمال في مجال التكنولوجيا – لديهما صلات بحركة الإيثار الفاعلة. ألمحت ورقة بحثية حديثة كانت تونر من مؤلفيها إلى نوع التوترات التي قد يسببها ذلك. لقد انتقدت الورقة البحثية ضمنيا ألتمان لإطلاقه برمجية شات جي بي تي دون أي “اختبار سلامة تفصيلي” أولا، ما أدى إلى نوع من “ديناميكيات السباق إلى القاع” التي استنكرتها شركة أوبن أيه آي نفسها. كتبت تونر وزملاؤها المؤلفون أن الهيجان المحيط بروبوت الدردشة دفع شركات أخرى، منها شركة جوجل، إلى “تسريع أو التحايل على عمليات مراجعة السلامة الداخلية والأخلاقيات”.

تراكمت هذه المخاوف مع تقدم تكنولوجيا شركة أوبن أيه آي، وكان كثير من الخبراء في هذا المجال يراقبون بقلق علامات تشير إلى أن الذكاء الآلي على المستوى البشري، والمعروف باسم الذكاء العام الاصطناعي، قد يقترب. وبدا أن ألتمان يرفع المخاطر مرة أخرى هذا الشهر، ملمحا إلى أن الشركة قد حققت اختراقا بحثيا كبيرا آخر من شأنه أن “يدفع حجاب الجهل إلى الوراء ويدفع حدود الاكتشاف إلى الأمام”. لكن إذا كان أعضاء مجلس إدارة شركة أوبن أيه آي يعتقدون أن لهم الكلمة الأخيرة في كيفية استغلال مثل هذه التكنولوجيات، فيبدو أنهم كانوا مخطئين. لقد صدمت إقالة ألتمان المفاجئة عالم التكنولوجيا وأثارت تمردا من قبل الموظفين، الذين هدد كثير منهم بالاستقالة ما لم يعد.

عملت شركة مايكروسوفت هي الأخرى، التي التزمت الآن بمبلغ 13 مليار دولار للشركة، على إعادة ألتمان إلى منصبه – وهو مثال على التأثير الخارجي الذي صممت ترتيبات حوكمة شركة أوبن أيه آي لمقاومته. وفي غضون أيام، رضخ أعضاء مجلس إدارة شركة أوبن أيه آي. أدت الاتفاقية التي انتهت بإعادة ألتمان إلى منصبه إلى استقالة كل من تونر وماكولي من مجلس الإدارة، إلى جانب إيليا سوتسكيفر، باحث الذكاء الاصطناعي الذي قاد مبادرة جديدة داخل الشركة هذا العام لمنع “الذكاء الفائق” المستقبلي من إخضاع البشرية أو حتى القضاء عليها. يقول أورد، الذي يعمل في المجلس الاستشاري لمركز حوكمة الذكاء الاصطناعي إلى جانب ماكولي وتونر: “نظريا، كان مجلس الإدارة يتمتع بالسلطة، هكذا رسم سام ألتمان الصورة. بدلا من ذلك، يبدو أن قدرا كبيرا جدا من السلطة موجود في يد ألتمان شخصيا، والموظفين وشركة مايكروسوفت”.
يقول أورد إنه ليس لديه أي فكرة عما إذا كان من الممكن حل هذا النوع من التوترات، لكنه يضيف عن شركة أوبن أيه آي: “على الأقل كانت هناك شركة تخضع للمساءلة عن شيء آخر غير الأرباح الصافية”.  ويضيف: “لا أرى أي بدائل. يمكنك أن تقول الحكومة، لكنني لا أرى الحكومات تفعل أي شيء”.

الذكاء الاصطناعي المناسب للمستقبل

أوبن أيه آي ليست شركة الذكاء الاصطناعي المتقدم الوحيدة التي قامت بتجربة شكل جديد من الحوكمة. فقد حاولت شركة أنثروبيك، التي ترك مؤسسوها شركة أوبن أيه آي عام 2020 بسبب مخاوف بشأن التزامها بسلامة الذكاء الاصطناعي، اتباع نهج مختلف. لقد حصلت على استثمارات أقلية من شركتي جوجل وأمازون، لكن لتعزيز اهتمامها بسلامة الذكاء الاصطناعي، فإنها تسمح لأعضاء صندوق مستقل بتعيين عدد من أعضاء مجلس إدارتها.

وناضل مؤسسو ديب مايند، مختبر أبحاث الذكاء الاصطناعي البريطاني الذي اشترته شركة جوجل قبل عقد من الزمن تقريبا، للحصول على درجة أكبر من الاستقلال داخل الشركة لضمان استخدام أبحاثهم دائما لتحقيق الخير. وفي هذا العام، تم دمج ديب مايند في شركات أبحاث الذكاء الاصطناعي الأخرى في شركة جوجل، رغم أن الوحدة المدمجة يقودها المؤسس المشارك لمختبر ديب مايند، ديميس هاسابيس.

ويقول المنتقدون إن هذا النوع من محاولات التنظيم الذاتي محكوم عليه بالفشل، نظرا إلى حجم المخاطر. يقول أحد المستثمرين في الذكاء الاصطناعي، الذي يعرف ألتمان جيدا، إن رئيس شركة أوبن أيه آي يأخذ المخاطر المحتملة للتكنولوجيا على محمل الجد. لكنه مصمم أيضا على تنفيذ مهمة شركته المتمثلة في تطوير الذكاء الاصطناعي العام. يقول المستثمر: “يريد سام أن يكون أحد الأشخاص العظماء في التاريخ وأن يعيد تشكيل العالم بطريقة خطرة”. ويضيف راسل، من جامعة كاليفورنيا في بيركلي: “إن الشعور بالقوة والمصير الذي يأتي من تحويل المستقبل هو أمر تصعب مقاومته حقا. إن المصلحة المكتسبة ليست المال فقط”. ويدعم جان تالين، المؤسس المشارك لشركة سكايب وأحد أبرز المؤيدين للإيثار الفاعل في عالم التكنولوجيا، فكرة أن تتوصل شركات الذكاء الاصطناعي إلى “هياكل حوكمة مدروسة” بدلا من مجرد الاستجابة لقوى السوق.

لكنه يضيف: “من المؤسف أن أزمة حوكمة شركة أوبن أيه آي تظهر أن مخططات الحوكمة ذات الدوافع الجيدة هذه أقل قوة مما يأمل المرء”. في الوقت نفسه، في وادي السيليكون، أدت الاضطرابات في شركة أوبن أيه آي إلى تفاقم رد الفعل العنيف ضد حركة ذوي الرؤية طويلة المدى، بينما قدمت أدلة لمعارضي تنظيم الذكاء الاصطناعي بشكل أكبر. وقد تضررت سمعة حركة الإيثار الفاعلة هذا الشهر عندما أدين أحد أبرز داعميها، سام بانكمان فرايد، مؤسس إف تي إكس، بالاحتيال. كان رجل الأعمال في مجال العملات المشفرة، الذي قال إنه سيتخلى عن معظم ثروته، من أوائل المستثمرين المهمين في شركة أنثروبيك.

يقول أورد إن استخدام مواقف فردية كهذه “للقول إن الفلسفة قد انتهت، هو مثل القول إن الليبرالية ماتت بسبب سياسي واحد. لا يمكنك انتقاد فلسفة من هذا القبيل”. في هذه الأثناء، أصبح منتقدو المتشائمين أكثر صراحة. فقد قال يان ليكون، كبير علماء الذكاء الاصطناعي في شركة ميتا، أخيرا، إنه “من السخف” الاعتقاد أن الذكاء الاصطناعي يمكن أن يهدد البشرية. وبدلا من ذلك، من شأن الآلات الذكية أن تحفز نهضة ثانية في التعلم وتساعدنا على معالجة تغير المناخ وعلاج الأمراض. “ليس هناك شك في أنه سيكون لدينا آلات أكثر ذكاء منا لمساعدتنا. والسؤال هو: هل هذا مخيف أم مثير؟ أعتقد أن الأمر مثير لأن تلك الآلات ستنفذ طلباتنا. وستكون تحت سيطرتنا”.

وقد وصف مارك أندريسن، صاحب رأس المال المغامر الذي أصبح واحدا من أكثر المعارضين صراحة للتنظيم في وادي السيليكون، الأشخاص الذين يحذرون من المخاطر الوجودية الناجمة عن الذكاء الاصطناعي بأنهم طائفة لا تختلف عن الحركات الألفية الأخرى التي تحذر من الكوارث الاجتماعية الوشيكة. وكتب في يونيو: “لقد أصابوا أنفسهم بحالة من الجنون”.
يقول النقاد إن وضع الأشخاص الذين سيعيشون في المستقبل على قدم المساواة مع أولئك الذين يعيشون اليوم له آثار شريرة إذا وصلنا إلى نهايته المنطقية – لأن عدد الناس في المستقبل أكبر بكثير، فإن مصالحهم ستسود.
ويقولون إن هذا، في أقصى حالاته، يمكن استخدامه كذريعة لإخضاع أجزاء كبيرة من السكان لمصلحة المليارات من الناس في المستقبل.

يقول أصحاب الرؤية طويلة المدى إن هذه الحجة توسع الفلسفة إلى أقصى الحدود لتشويهها سمعتها، في محاولة لجعل إخضاع سلامة الذكاء الاصطناعي للتنظيم أقل احتمالا. يقول راسل: “إن انتقاد التوجه طويل الأمد بوصفه عقلية فاشية جديدة غريبة هو أمر خاطئ”. يقول إن معظم أتباعها يتفقون على الحاجة إلى “استبعاد” مصالح الأجيال القادمة في المستقبل البعيد، ما يعني أن وزنهم في القرارات أقل أهمية من مصالح الناس الذين يعيشون اليوم.

ويزعم أصحاب الرؤية طويلة المدى أيضا أن تركيزهم على مخاطر الذكاء الاصطناعي لا يجعلهم مختلفين عن أولئك الذين يحذرون من الكوارث التي تلوح في الأفق مثل تغير المناخ، وأن مجرد عدم القدرة على قياس احتمال تدمير البشرية بسبب الذكاء الاصطناعي على وجه التحديد لا يعني أنه ينبغي تجاهله. في ضوء جميع المتغيرات، يقول أورد، فإن الادعاء بأن الذكاء الاصطناعي “لا يشكل خطرا وجوديا على البشر في الوقت الحالي هو حجة سخيفة”.

اعرف الكيمياء الخاصة بك 

لقد وجدت وجهة النظر هذه جمهورا خارج بعض أركان صناعة التكنولوجيا وقسم الفلسفة في جامعة أكسفورد. وكانت قمة سلامة الذكاء الاصطناعي التي استضافتها الحكومة البريطانية هذا الشهر في بليتشلي بارك أول محاولة لعقد نقاش سياسي عالمي حول المخاطر الوجودية للذكاء الاصطناعي. الاجتماع – الذي حضرته 28 دولة، من بينها الولايات المتحدة والصين، وعديد من كبار الباحثين في مجال الذكاء الاصطناعي والمديرين التنفيذيين لشركات التكنولوجيا في العالم، مثل ألتمان – مهد الطريق لإجراء حوار حول هذه القضايا مع عقد قمتين أخريين في كوريا الجنوبية وفرنسا خلال العام المقبل.

إن التوصل إلى اتفاق يقضي بضرورة أخذ المخاطر الوجودية التي يفرضها الذكاء الاصطناعي على محمل الجد ليس سوى خطوة أولى. كما تعمل كل من المملكة المتحدة والولايات المتحدة أيضا على إنشاء معاهد دائمة لسلامة الذكاء الاصطناعي لتعميق خبرة القطاع العام في هذا المجال واختبار النماذج المتقدمة لشركات الذكاء الاصطناعي الكبرى. وقد كلفت الحكومة البريطانية يوشوا بنجيو، أحد رواد ثورة التعلم العميق والحائز جائزة تورينغ، بإعداد تقرير عن آخر التطورات والاختراقات العلمية، لإطلاع صناع السياسات العالميين. إن الطريقة الوحيدة أمام العالم “للتغلب على المخاطر التي يشكلها الذكاء الاصطناعي القوي”، كما يقول تالين، هي “تكثيف مستوى فاعلية التنظيم، محليا ودوليا”.

لكن عديدا من علماء الذكاء الاصطناعي الرائدين في العالم يختلفون كثيرا في تقييماتهم لقدرات الذكاء الاصطناعي الحالية وتطوره في المستقبل، ما يجعل من الصعب على الهيئات التنظيمية معرفة ما يجب القيام به. وقالت تونر، العضوة السابقة في مجلس إدارة أوبن إيه آي، خلال مقابلة أجريت معها أخيرا في مقابلة حديثة لتدوينة صوتية لصحيفة “فاينانشال تايمز” تم تسجيلها قبل أحداث هذا الأسبوع: “هذا المجال – الذكاء الاصطناعي – يشبه الكيمياء أكثر من علم الصواريخ. أنت ترمي الأشياء في الوعاء وحسب لترى ماذا سيحدث بعدها”.

إن كيفية حل شركة أوبن إيه آي للأزمة على أعلى مستوياتها قد تساعد على إظهار مدى مهارة منافسيها، في السباق نحو الذكاء الاصطناعي على المستوى البشري، في التعامل مع التناقضات العميقة في عملهم بين التطور والسلامة.
ولكن على الرغم من عودة ألتمان الآن إلى القيادة، إلا أن مجلس إدارة أوبن إيه آي الجديد لم يقدم بعد تفسيرا عاما للخطأ الذي حدث بالضبط، أو تحديد التغييرات التي سيجريها لضمان عدم خروج الشركة عن مسار مهمتها الأساسية المتمثلة في جعل ذكاء الكمبيوتر آمنا للبشرية. إن العالم ينتظرهم.

المصدر: الاقتصادية

اترك رد

Your email address will not be published.