هستيريا الذكاء الاصطناعي

ما بين تخوفات إيلون ماسك واحتمال أن يكون "أكثر خطورة من كارثة نووية "

51

AI بالعربي _ متابعات 

لم يكد يمضي أسبوعان على إطلاق “أوبن إيه. آي” النسخة الأكثر تطورا من “تشات جي. بي. تي.” (GPT-4) مع كل ما تحمله من ميزات أشد إثارة مقارنة بالنسخة السابقة، حتى ووجهت برسالة أثارت صخبا ومخاوف تحت عنوان “وقف موقت لتجارب الذكاء الاصطناعي العملاقة”. ففي كتاب مفتوح دعا أكثر من ألف وثلاثمئة شخصية بارزة في عالم التكنولوجيا والأعمال، الى تجميد تطوير أقوى أنظمة روبوتات “الذكاء الاصطناعي” لمدة ستة أشهر على الأقل، نظرا الى الخطر الذي تشكله هذه الأنظمة ذات الذكاء التنافسي البشري على المجتمعات والإنسانية.

أهمية الرسالة أن من أبرز موقعيها إيلون ماسك، مالك “تويتر” (أو “أكس كورب” كما صارت تسميتها الشهر الماضي) والرئيس التنفيذي لـشركة “تسلا”، ستيف وزنياك أحد مؤسسي “أبل”، ستيوارت راسل، أستاذ علوم الكومبيوتر في جامعة كاليفورنيا، بيركلي، وماكس تيغمارك، أستاذ الفيزياء في معهد ماساشوستس للتكنولوجيا، وإيفان شارب، أحد مؤسسي “بينترست” وكثيرين غيرهم.

تمنى هؤلاء استغلال المهلة المقترحة لوضع مجموعة قواعد وبروتوكولات مشتركة لأدوات الذكاء الاصطناعي الآمنة بما يبدد المخاوف وينظم القطاع. وطالبوا الحكومات بأن تكون سدا منيعا في حال عدم الاستجابة، إذ “يجب أن يكون لدينا بعض اللوائح والضوابط الرقابية” بحسب ماسك الذي كان محقا في قوله “لدينا هيئات تنظيمية تشرف على السلامة العامة للسيارات والطائرات والأدوية”، فما المانع أن يطال ذلك الذكاء الاصطناعي.

عندما يقلق ماسك من الذكاء الاصطناعي (Artificial Intelligence – AI) فهو لا يتحدث عن طائرات الـ”درون” التي تستخدم لتأمين خدمات البريد السريع أو التصوير أو غيره، ولا عن تطبيقات التواصل الاجتماعي التي شكلت أول ربط بين “AI” والإنسانية، في وقت نخسر تواصلنا الاجتماعي الحقيقي شيئا فشيئا، كما أنه لا يتحدث عن الذكاء الاصطناعي الذي يستخدم في برامج عملية لتطوير آلياتها. ما يحذر منه ماسك أبعد من ذلك بكثير، وهو على حق من حيث المبدأ، في حال كانت نياته صافية وخلواً من أهداف تجارية مضمرة.

أكبر تهديد وجودي للبشرية

ليست المرة الأولى التي يحذر فيها ماسك من تداعيات المضي العشوائي أو غير المسؤول في تطوير الذكاء الاصطناعي، ولا سيما في شق “التعلم الذاتي للآلة”، ففي عام 2014 تحدث في معهد “ماساشوستس” للتكنولوجيا عن إمكان تحول الـ”AI” إلى “أكبر تهديد وجودي للبشرية”، وكرر موقفه في قمة الحكومات في دبي في فبراير/شباط الماضي، وسبق له أن قاد حملة في عام 2017 توجه بها إلى حكومات الدول، وأيده فيها ألف من العلماء الكبار، ممن يدركون إمكانات الذكاء الاصطناعي من أمثال عالم الفيزياء ستيفن هوكينغز، الرئيس التنفيذي لـ”ديب مايند تيكنولوجيز” ديميس هاسابيس، ووزنياك، الذين وقعوا رسالة في تلك السنة أيضا، تدعو إلى حظر تطوير الأسلحة القائمة على الذكاء الاصطناعي خوفا من سباق تسلح بهذه التقنية المتطورة ونشرها واستخدامها، أو إطلاق ما يسمى “الروبوتات القاتلة”، كما سبق وشاهدنا في العديد من أفلام الخيال العلمي، أو “الأسلحة الذاتية” التي يمكن أن تشعل حربا عالمية ثالثة، من تلقاء نفسها. 

وقد انضم المئات من خبراء الذكاء الاصطناعي من كندا وأستراليا إلى الحملة في وقت لاحق للأسباب عينها. ولا يزال الجدل قائاما بين الدول حتى يومنا هذا حول وجوب حظر هذا النوع من الأسلحة أو السماح بها وفق قواعد صارمة تحكم استخدامها. علما أن عددا من المقترحات لتنظيم تكنولوجيا الـ”AI” تم طرحها في الآونة الأخيرة في الولايات المتحدة والمملكة المتحدة والاتحاد الأوروبي، التي قدمت سابقا أطرا أولية لحوكمة التكنولوجيا إلى جانب الصين وسنغافورة. إلا أن تحركا أمميا جماعيا قد لا يكون مجديا أو متسقا مع سرعة تقدم الذكاء الاصطناعي وقد يبدو كمن يلوح براية حمراء لصاروخ انطلق، مما يفرض على كل دولة القيام بدورها الرقابي خطوة بخطوة.

تلتقي المخاوف المعلنة في الرسالتين عند السيطرة السلبية للذكاء الاصطناعي خصوصا في ظل عدم الاستعداد الكافي للأخطار المحتملة وكيفية تجنبها، من الأخطار السيبرانية والسلوكيات المتحيزة، إلى سيطرة الخوارزميات على عقول البشر وتلقينهم معلومات خاطئة أو خطيرة مثل كيفية صنع سلاح بيولوجي، إضافة إلى سرقة نصوصهم وفنونهم وأشعارهم، وكذلك وظائفهم بمئات الملايين ربما، والأسوأ من ذلك، إلى تدمير وجودهم.

هل هذه المخاوف مبررة؟ الجواب هو نعم، فالمصالح الأمنية والجيوستراتيجية والاقتصادية تتقدم على أي اعتبار، والشاهد على ذلك الغزو الروسي لأوكرانيا والحرب الباردة بين الولايات المتحدة والصين، والتي قد تتحول إلى ساخنة وتنفجر في أي وقت.

 

لا يخفى أن أبحاث الـ “AI” حققت تقدما مذهلا خلال العقد الماضي، بعد “شتاء الذكاء الاصطناعي” في أواخر الثمانينات الذي أفضى إلى فشل تجاري واسع. وكان أُحرز هذا التقدم خصوصا في مجال التعلم الآلي وتطوير آلات تحمل وعدا عظيما ويمكنها تنفيذ عمليات معقدة ذات قيمة عالية جدا مع إشراف البشر أو تدخلهم أو من دونه وهو الأخطر. ساهمت العاصفة العالمية التي أثارها “تشات جي. بي. تي.” في الأشهر الخمسة المنصرمة في تجديد سباق التسلح التكنولوجي، وقد تنتج منه تحولات سريعة للذكاء الاصطناعي تتطلب فهما عميقا وقدرة على الإحاطة بزمام الأمور بسرعة تتخطى سرعة الذكاء الاصطناعي الفائقة، وبعدا أخلاقيا حيويا.  

أخطر من كارثة نووية

لا شك أن ماسك ليس وحيدا في استشعاره الأخطار المحدقة، بل هناك مواقف أكثر تطرفا تثير الهلع من التقدم غير المدروس للذكاء الاصطناعي، وقد يكون الموقف الأعنف لبيل غايتس، مالك شركة “مايكروسوفت” الذي قال قبل سنوات إن الذكاء الاصطناعي “يحتمل أن يكون أكثر خطورة من كارثة نووية”. من المستغرب من صاحب قول كهذا بالأمس، ألا يكون في صف ماسك اليوم، ويبدو وكأنه على المقلب الآخر من الاصطفاف الحاصل ما بين التروي أو المضي قدما.

سبقه في ذلك هنري كيسنجر، أحد مؤلفي كتاب “عصر الذكاء الاصطناعي ومستقبل الإنسان”، الذي عقد اجتماعا سريا، كما ذكرت مجلة “فانيتي فير”، مع خبراء الذكاء الاصطناعي الكبار في نادي “بروك” الخاص في مانهاتن عام 2016، لمناقشة التغيير المفاجىء أو الصدع الذي يمكن أن تتسبب به الروبوتات الذكية في التاريخ (Rupture In History) وخطورة اكتشافها مسار بناء الحضارات. أما بيتر ثيل، أحد أبرز ممولي شركة “أوبن إيه. آي.”، فكان رأيه أن التطور الفائق والكلي للذكاء الاصطناعي هو أمر “في حجم هبوط كائنات فضائية”، وأنه لا يعتقد أن لدى أحد أي دليل حول كيفية تطوير ذكاء اصطناعي آمن، ذلك “أننا لا نعرف حتى ماهية الذكاء الاصطناعي، فمن الصعب جدًا معرفة كيف يمكن التحكم به”. 

 

اللافت أن ماسك شارك في تأسيس شركة الذكاء الاصطناعي “أوبن إيه. آي.” عام 2015، الشركة الأم لـ “تشات جي. بي. تي.” (غير الربحية في البداية قبل تحويلها إلى شركة أخيرا)، لجعل العالم في مأمن من “الذكاء الاصطناعي الخبيث”. وهو الذي دافع في أكثر من مناسبة عن الشركة مطلقا صفة الديموقراطية على أهدافها مبررا تطويرها لتطبيقات تعتمد على الذكاء الاصطناعي لا تكون في طبيعتها حكرا على أحد من الناس، حيث تكمن الخطورة في حصر التقنية في يد فئة قليلة ممن يستغلون القدرات الخارقة للذكاء الاصطناعي لأهداف تدميرية. إلا أن الأمر اختلف الآن بعد مغادرة ماسك مجلس إدارة الشركة عام 2018 إذ بدأ ينتقد الشركة وتوجهاتها منذ ذلك الحين، لا سيما علاقتها مع “مايكروسوفت”.

الآلة في مواجهة البشر

يشرح ماسك أن البشر سيكونون “محمل التشغيل (boot-loader) البيولوجي للذكاء الرقمي الفائق”.

محمل التشغيل هو برنامج صغير يطلق نظام التفعيل عند تشغيل جهاز الكومبيوتر لأول مرة. “لا يمكن للمادة تنظيم نفسها في شريحة، ولكن يمكنها تنظيم نفسها في كيان بيولوجي يزداد تعقيدا ويمكنه في النهاية إنشاء الشريحة”. في قوله هذا تحذير من تمادي البشر في الاستغراق في التطور السريع والهائل الذي يشهده الذكاء الاصطناعي دون التفكر في ما يمكن أن تؤول إليه قدرات هذه التكنولوجيا الذاتية من سلوكيات قد تنعكس سلبا على البشر لنحصد شر ما اقترفت أيديهم. فالقضية بالنسبة إليه تتجاوز دوافع حفنة من المديرين التنفيذيين في “وادي السيليكون”، من بينهم مديرو “غوغل”، أكانوا يتمتعون بأخلاقيات الأعمال أم لا، فالآلات لن تعكس شخصية من يصنعونها، بل سيكون لها كيانها الذاتي، ولا يمكن توقع إلى جانب من ستكون الآلة، فهى بلا ضوابط قد تقف ذات يوم في مواجهة البشر. 

كان غياب اسمي الرئيسين التنفيذيين لشركتي “ألفابيت” و”مايكروسوفت”، سندار بيتشاي وساتيا ناديلا عن لائحة موقعي الرسالة المفتوحة جليا، فالمهلة المطروحة للهدوء والتروي ليست في صالحهما تجاريا للحاق بالسباق المحموم الذي فرضه “تشات جي. بي. تي.” والمعركة “الوجودية” بدأت بين الشركتين اللتين لهما باع طويل في الاستثمار في أنظمة الذكاء الاصطناعي. أكثر ما يثير القلق التوجه السائد لدى هاتين الشركتين، إضافة إلى “ميتا” و”أمازون”، لتقليص فريق أخلاقيات الأعمال لديهم المخصص لتقييم القضايا الأخلاقية حول نشر الذكاء الاصطناعي، بحسب صحيفة الـ “فاينناشال تايمز”.

لا ينبغي أن يكون السباق للسيطرة على السوق المحرك الوحيد لسرعة نشر التكنولوجيا الأكثر تأثيرا على البشرية. فكما لا يمكن لشركات الدواء إطلاق أي منتج جديد قبل إخضاعه لاختبارات دقيقة تمتد إلى سنوات وتؤكد سلامته للمستخدم،  كذلك قد لا يكون مناسبا إطلاق أنظمة ذكاء اصطناعي تتمتع بقوة “GPT-4″  وأكبر منها، قبل تقييم قدرة مختلف الثقافات والشعوب والدول على استيعابها بأمان. المفارقة أن هذا تماما ما أعرب عنه سوندار بيتشاي نفسه، الرئيس التنفيذي لـ”غوغل”، الذي صرح علنا الشهر الماضي في مقابلة لـ”سي. بي. أس. نيوز” خلال برنامج “60 دقيقة”، أن المجتمع لا يزال غير مستعد لما هو قادم على الرغم من قابليته للتكيف.

ولربما ماسك على حق في انتقاداته لصنوه بيل غايتس، فقد اتهمه بـ “قصر النظر” في فهمه للأمر، وذلك بعد مطالعة لغايتس في آذار/مارس الماضي تحت عنوان “لقد بدأ عصر الذكاء الاصطناعي”، دافع فيها عن الذكاء الاصطناعي معتبرا إياه مكملا أو داعما لدور البشر وليس لاغيا له، لا سيما في رفع انتاجية العمل أو إيجاد حلول لتعزيز فرص التعليم وتلقي الرعاية الصحية ومكافحة تغير المناخ. وعلى الرغم من تطرقه إلى أخطار هذه التكنولوجيا، إلا أنه دعا إلى الموازنة بين المخاوف في شأن الجوانب السلبية للذكاء الاصطناعي، وهي واقعية ومفهومة، وبين قدرته على تحسين حياة البشر. فكما يحتاج العالم إلى ألمع العقول للتركيز على أكبر تحدياته، سيحتاج كذلك أفضل أنظمة الذكاء الاصطناعي للتركيز على معالجة هذه التحديات، كما قال غايتس في مطالعته التي نشرها على موقعه الخاص “غايتس نوتس”.

العالم في “لحظة محورية”

أما الرأي المحايد الأبرز فكان للعالم والأكاديمي البريطاني الكندي جيفري هينتون، الحائز دكتوراه في الذكاء الاصطناعي منذ 45 عاما، والذي اشتهر بـ”عراب الذكاء الاصطناعي”. 

يعتبر هينتون رجل الذكاء الاصطناعي الأول لدى “غوغل”، وقد استقال من منصبه مطلع الأسبوع الماضي لرغبته التحدث علنا عن “أخطار” التكنولوجيا التي ساعد في تطويرها من دون التأثير على سمعة الشركة كما قال، فيما قد ينظر إلى استقالته كـ”صحوة ضمير” أمام ما تسعى إليه “غوغل” من سباق في تطوير أنظمة الذكاء الاصطناعي من دون التحسب لعواقب هذا الانجرار الأعمى على الانسانية جمعاء، وسط المعركة الضروس بينها وبين منافسيها “مايكروسوفت”، و”أوبن. أي. آي.”. وهو، في حين أكد في مقابلة مع “سي. بي. أس. نيوز” في مارس/آذار الماضي أن العالم في “لحظة محورية”، مع التقدم السريع للذكاء الاصطناعي العام (AGI) حيث قلص توقعاته لغزو هذه التكنولوجيا العالم من 50 عاما، كما كان يعتقد منذ وقت قريب، إلى 20 عاما أو أقل، دعا إلى التفكير مليا في عواقبه الآن والتي قد تشمل قضية محاولته القضاء على البشرية. إلا أنه اعتبر هذه القضية شأنا ثانويا في مقابل حقيقة سعي الحكومات والشركات اللاهثة وراء السلطة لاحتكار تكنولوجيا الذكاء الاصطناعي وهي، الحكومات والشركات، لن تتوقف عن تطوير هذه التكنولوجيا قبل أن تتوقف نظيراتها عن ذلك.

في النتيجة، يبدو أن ماسك خسر جولته الأولى، وقد شكك البعض في دعوته تلك ووصفها بجزء من “استراتيجية مبيعات أكبر”، فهل يخسر معركته الثانية مع تنامي الوعي والإقبال على تطوير الذكاء الاصطناعي أكثر فأكثر وإدخاله في كل الميادين والاستخدامات وتكاثر الشركات الناشئة واحتدام المنافسة بين المستثمرين المتعطشين لكل ما هو جديد وواعد؟ 

لن تلقى رسالة ماسك الأخيرة آذانا صاغية على الأرجح، ولن يتجاوز تأثيرها بدء نقاش جدي لتحديد المخاطر المرتقبة، وفي أفضل الأحوال التزام الشركات “الحوكمة الرقمية” في ظل العواقب غير المنظورة. 

أول رد فعل جدي جاء من إيطاليا في إقدامها على حظر “تشات جي. بي. تي.” لغياب الدافع القانوني لجمع البيانات الشخصية وتخزينها بحجة “تدريب خوارزميات تشات جي. بي. تي.”، بما يتنافى مع قانون الخصوصية في الاتحاد الأوروبي، ويتوقع أن نشهد تحركا مماثلا لدول أخرى في الاتحاد الأوروبي والولايات المتحدة قريبا.

ليس ختاما، لا شك في أن الدعوات و”الرسائل الوجدانية”، أو الرهان على الدافع الأخلاقي الإنساني وحده، لن يقف حائلا دون مضي شركات “الذكاء الاصطناعي” قدما في تطوير أعمالها ونشرها وابتكار منتجات تدر الأرباح الطائلة عليها. في عالم “البزنس” والمال لا مكان لحسابات مصير البشرية، وليس على جدول أعمال الشركات أن تحل الأخلاق محل الأرباح، وهي لم تبد يوما ليونة تذكر، إلا فيما ندر،  للحؤول دون تدمير الكوكب من أجل الربح السريع ومهما كلف الثمن.

المصدر : المجلة

اترك رد

Your email address will not be published.