الذكاء الاصطناعي: هل يستطيع البشر معرفة أسراره وكيفية تطوره في المستقبل؟
AI بالعربي – متابعات
زار عالم الرياضيات والأحياء النظرية، جاك دي كوان، في عام 1956، شخصا يدعى ويلفريد تايلور، خلال رحلة إلى لندن استمرت عاما عندما كان في أوائل العشرينيات من عمره، وتعرف على آلة غريبة ابتكرها تايلور وأطلق عليها “آلة التعلم”.
واندهش كوان عقب وصوله من رؤية “كومة ضخمة من الأجهزة”، ولم يستطع عمل شيء سوى الوقوف ومشاهدة “الآلة وهي تؤدي عملها”، ويبدو أنها كانت تضطلع بتنفيذ “برنامج خاص بالذاكرة الترابطية”، بغية تحديد هذه الترابطات واسترجاع البيانات بناء على ذلك.
كان المشهد عبارة عن كتلة ضخمة من الدوائر الكهربائية المتلاصقة معا بطريقة يدوية داخل كتلة من الأسلاك والصناديق، بيد أن ذلك الذي رآه كوان ما هو إلا شكل بدائي من أشكال الشبكات العصبية، التي مهدت السبيل لأكثر أشكال الذكاء الاصطناعي تقدما اليوم، بما في ذلك منصة الدردشة “تشات جي بي تيChatGPT” المثيرة للجدل، وقدرتها على إنشاء محتوى مكتوب استجابة لأوامر لها.
لم يكن لدى كوان وتايلور أدنى فكرة عن كيفية سير العمل وهما يقفان يتابعان عمل آلتهما وكيفية تنفيذها للمهمة، وكان سر “المخ” المسيطر على آلة تايلور الغامضة في مكان ما يطلق عليه “الخلايا العصبية التماثلية”، أي الترابطات التي يجري تشكيلها داخل ذاكرة الآلة، والأهم من ذلك، أن وظيفتها الآلية لم تُفسر بشكل كامل، وسوف يستغرق الأمر عقودا حتى تحقق هذه الأنظمة هدفها، فضلا عن معرفة أسرارها.
ويصف مصطلح الشبكة العصبية، بحسب شركة “آي بي إم”، مجموعة واسعة من الأنظمة، ولكن بطريقة أكثر تحديدا، تمثل هذه “الشبكات العصبية – المعروفة أيضا باسم (الشبكات العصبية الاصطناعية) أو (الشبكات العصبية المحاكية) – مجموعة فرعية توجد في مركز خوارزميات التعلم الآلي والعميق”. وأشكال الشبكات وبنيتها “مستوحاة من المخ البشري، وتحاكي الطريقة التي تنقل بها الخلايا العصبية البيولوجية الإشارات فيما بينها”، كما يعكس المصطلح ذلك أيضا.
وربما أثيرت بعض الشكوك بشأن قيمة الفكرة في مراحلها الأولى، ولكن بمرور السنوات، تحولت أشكال الذكاء الاصطناعي بقوة نحو الشبكات العصبية، وغالبا ما يُفهم الآن سبب كونها مستقبل الذكاء الاصطناعي، وتأثيرها الكبير علينا وعلى ما يعنيه أن تكون إنسانا، لا سيما بعد أن سمعنا أصداء مخاوف مؤخرا ودعوات تطالب بإيقاف تطورات الذكاء الاصطناعي الجديدة مؤقتا لمدة ستة أشهر لحين توافر الثقة بشأن تداعياتها.
وسيكون من الخطأ بدون شك استبعاد الشبكة العصبية لكونها مجرد أدوات جديدة فريدة من نوعها. فهي راسخة بالفعل في حياتنا، وبعضها قوي من حيث التطبيق العملي، فعلى سبيل المثال يستخدم فريق تابع لمختبرات “إيه تي آند تي بيل”، منذ عام 1989، تقنيات الانتشار الخلفي للشبكة العصبية لتدريب أحد الأنظمة على تحديد الرموز البريدية المكتوبة بخط اليد.
ويوضح إعلان شركة مايكروسوفت مؤخرا بشأن عمل محرك البحث “بينغ” بتقنية الذكاء الاصطناعي، على نحو يجعله “مساعدك على الانترنت”، كيف أن الأشياء التي نكتشفها وطريقة فهمنا لها ستكون، بشكل متزايد، نتاج هذا النوع من الآلية.
واعتمادا على البيانات الضخمة المتاحة والتي تستخدم في تحديد الأنماط، يمكن تدريب الذكاء الاصطناعي بالمثل على القيام بأشياء مثل التعرف على الصور بسرعة، مما يؤدي إلى دمجه في عملية التعرف على ملامح الوجه، على سبيل المثال. وأدت هذه القدرة على تحديد الأنماط إلى إطلاق العديد من التطبيقات الأخرى، مثل تطبيقات التنبؤ بأسواق الأسهم.
كما تعمل الشبكات العصبية على تغيير طريقة الترجمة والتواصل فيما بيننا، ويعد تطبيق الترجمة من غوغل Google Translate، الذي طوره فريق Google Brain، تطبيقا بارزا آخر للشبكة العصبية.
كما تجاوز الأمر حد الرغبة في ممارسة لعب الشطرنج أو “شوغي” مع أحد الأشخاص، إذ يعني فهم القواعد وتذكر الخطط وجميع الحركات المسجلّة توافر إجادة استثنائية في الألعاب (على الرغم من معاناة ChatGPT فيما يبدو من مشكلة مع لعبة ووردلي Wordle).
بيد أن الأمر يتسع نطاقه، وهو ما تشير إليه عمليات البحث عن براءات الاختراع المقتصرة فقط على العبارة الدقيقة “الشبكات العصبية” والتي وصلت إلى 135828 نتيجة في وقت كتابة هذا التقرير.
وفي ظل هذا التوسع السريع والمستمر، قد يتراجع احتمال قدرتنا على معرفة تأثير الذكاء الاصطناعي وتفسيره بطريقة كاملة مقارنة بأي وقت مضى. وهذه التساؤلات تناولتها في بحثي وكتابي الجديد عن التفكير الحسابي.
طبقات “عدم المعرفة”
نستطيع من خلال نظرة سريعة على تاريخ الشبكات العصبية، رصد شيء مهم عن القرارات الآلية التي تحدد حاضرنا أو تلك التي قد يكون لها تأثير أعمق في المستقبل. كما يطلعنا ذلك أيضا على أنه من المحتمل أن يتراجع فهمنا لقرارات وتأثيرات الذكاء الاصطناعي بمرور الوقت. فهذه الأنظمة ليست مجرد صناديق سوداء، ولا أجزاء مخفية من نظام لا يمكن رؤيتها أو فهمها.
إنها شيء مختلف، شيء راسخ في أهداف وتصميم هذه الأنظمة نفسها. هناك سعي دائم وراء تفسير ما لا يمكن تفسيره، وكلما كان النظام أكثر غموضا، برز اعتقاد بأن النظام أكثر أصالة وتطورا. كما لا يتعلق الأمر فقط بأن تصبح الأنظمة أكثر تعقيدا أو تسهم ضوابط الملكية الفكرية من الوصول إليها (على الرغم من أن هذه جزء منها).
بيد أن ذلك يدفعنا إلى التصريح بأن الروح التي تقود تلك المهمة لها مصلحة خاصة وراسخة في “عدم المعرفة”، إذ تجري عمليات ترميز كل شكل من أشكال الشبكة العصبية. وتوجد هذه الأسرار في طبقات متراكمة بعمق، ومن هنا جاءت تسمية “التعلم العميق”، وداخل تلك الأعماق توجد “طبقات مخفية” أكثر غموضا.
يسعى علماء الكمبيوتر إلى استنساخ شبكات عصبية تحاكي البشر في أجهزة الكمبيوتر منذ عقود
وثمة احتمال كبير أنه كلما زاد تأثير الذكاء الاصطناعي على حياتنا، تراجع فهمنا لكيفية عمله. وتتوافر حاليا دفعة قوية للذكاء الاصطناعي التي يمكن تفسيرها، كما نرغب في معرفة طريقة العمل وكيفية إصدار القرارات والنتائج.
ويعرب الاتحاد الأوروبي عن قلق بالغ إزاء “المخاطر غير المقبولة” المحتملة وحتى التطبيقات “الخطيرة” القائمة على الذكاء الاصطناعي، لدرجة أن الاتحاد يعمل حاليا على صياغة قانون جديد للذكاء الاصطناعي، يهدف إلى وضع معيار عالمي “لتطوير ذكاء اصطناعي آمن موثوق به ويتسم بالأخلاقية”.
وتعتمد هذه القوانين الجديدة على الحاجة إلى التفسير، وتنص على أنه “بالنسبة لأنظمة الذكاء الاصطناعي عالية المخاطر، سيكون من الضروري جدا الوفاء بمتطلبات البيانات عالية الجودة، والتوثيق وإمكانية التتبع، والشفافية، والرقابة البشرية، والدقة والفعالية، من أجل الحد من المخاطر التي تهدد الحقوق الأساسية والسلامة بسبب الذكاء الاصطناعي”.
ولا يتعلق الأمر فقط بأشياء مثل السيارات ذاتية القيادة (على الرغم من أن الأنظمة التي تضمن السلامة تندرج ضمن فئة الذكاء الاصطناعي عالية الخطورة في الاتحاد الأوروبي)، إلا أنه من دواعي القلق أيضا أن تظهر أنظمة في المستقبل يكون لها تأثير على حقوق الإنسان.
ويمثل ذلك جانبا من دعوات أوسع من أجل تطبيق مبدأ الشفافية في الذكاء الاصطناعي، بحيث يمكن فحص أنشطته ومراجعته وتقييمه. مثال آخر على ذلك هو إعلان سياسة الجمعية الملكية بشأن الذكاء الاصطناعي القابل للتفسير، والذي يشيرون فيه إلى أن “نقاشات السياسة في جميع أنحاء العالم ترى بشكل متزايد تلك الدعوات الرامية إلى تحديد شكل من أشكال قابلية تفسير الذكاء الاصطناعي، بوصفها واحدة من بين الجهود المبذولة لتضمين المبادئ الأخلاقية في تصميم ونشر الذكاء الاصطناعي”.
بيد أن التطورات الجارية في الشبكات العصبية تخبرنا أنه من المحتمل أن نبتعد عن هذا الهدف في المستقبل، بدلا من الاقتراب من تحقيقه.
استلهام المخ البشري
تمثل الشبكات العصبية أنظمة معقدة على أرجح التقديرات، ولكن لديها بعض المبادئ الأساسية. ففي خطوة تستلهم فكرة مخ الإنسان، تسعى الشبكات إلى نسخ أو محاكاة أشكال التفكير البيولوجي والإنساني. فمن حيث الهيكل والتصميم، كما توضح شركة آي بي إم، تتكون الشبكات العصبية من “طبقات العُقدة، التي تحتوي على طبقة مدخلات، وطبقة مخفية واحدة أو أكثر، وطبقة مخرجات”.
وتضيف الشركة أن “كل عُقدة، أو خلية عصبية اصطناعية، ترتبط بأخرى”، ونظرا لأن الأمر يحتاج إلى مدخلات ومعلومات لإنشاء مخرجات، فإن تلك الأنظمة “تعتمد بمرو الوقت على بيانات تدريب من أجل التعلم وتحسين الدقة”. وتعد هذه التفاصيل الفنية بالغة الأهمية، فضلا عن الرغبة في صياغة نماذج لهذه الأنظمة وفقا لتعقيدات المخ البشري.
وتسهم معرفة الدوافع وراء هذه الأنظمة في تحديد وفهم ما تعنيه هذه التفاصيل الفنية على الصعيد العملي. ففي مقابلة أجريت عام 1993، قال عالم الشبكات العصبية، تيوفو كوهونن، إن ابتكار نظام قائم على “التنظيم الذاتي” هو “حلم بالنسبة لي”، لأنه يعمل” شيئا مثلما يفعله نظامنا العصبي بدافع فطري”.
وتصور كوهونن، على سبيل المثال، كيف يمكن استخدام نظام يراقب ويدير نفسه في شكل “لوحة مراقبة لأي آلة … في كل طائرة أو محطة طاقة نووية أو سيارة”. ويعتقد أن هذا يعني أنه في المستقبل “يمكنك رصد الحالة التي عليها النظام فورا”.
وينطوي الهدف الأكبر من ذلك على ابتكار نظام قادر على التكيف مع البيئة المحيطة به، ويتميز بالعمل لحظيا وباستقلال، ويعمل بأسلوب عمل الجهاز العصبي. هذا هو الحلم، ابتكار أنظمة يمكنها التعامل ذاتيا دون الحاجة إلى تدخل بشري كبير.
محاكاة مخ الإنسان
ربما اتضحت، عند مناقشة الشبكات العصبية، صورة المخ وتعقيداته وأنها ليست بعيدة عن الفكرة. فالمخ يمثل نموذجا لهذه الأنظمة. ففي المراحل الأولى، على وجه الخصوص، كان المخ – الذي لا يزال أحد أكبر الأشياء المجهولة – نموذجا لكيفية عمل الشبكة العصبية.
صُممت هذه الأنظمة التجريبية الجديدة اعتمادا على شيء وظيفته في حد ذاتها غير معروفة إلى حد كبير. ويتحدث مهندس الحوسبة العصبية، كارفر ميد، كاشفا مفهوم “جبل الجليد المعرفي” الذي وجده مفيدا بشكل خاص. وما هو إلا غيض من فيض ما نعرفه ونراه. ولا يزال حجم وشكل ما تبقى مجهولا تحت السطح.
في عام 1998، لاحظ جيمس أندرسون، الذي كان يعمل لبعض الوقت على الشبكات العصبية، أنه عندما يتعلق الأمر بإجراء بحث عن المخ “تكون النتيجة الرئيسية، فيما يبدو، إدراك حقيقة أننا لا نعرف ماذا يحدث”.
وأشار ريتشارد ووترز، الصحفي المتخصص في الشؤون التكنولوجية، في صحيفة “فاينانشال تايمز” عام 2018 إلى كيفية تصميم شبكات عصبية على أساس نظرية ترتكز على كيفية عمل المخ البشري، ونقل البيانات عبر طبقات من الخلايا العصبية الاصطناعية إلى أن يبرز نمط يمكن التعرف عليه.
وقال ووترز إن هذا يخلق مشكلة غير مباشرة، لأنه “على عكس الدوائر المنطقية المستخدمة في برنامج برمجة تقليدي، لا توجد طريقة لتتبع هذه العملية من أجل تحديد سبب تحديد الكمبيوتر استجابة معينة”، واستنتج ووترز أن هذه النتائج لا يمكن أن تكون غير منتقاة، وأن تطبيق هذا النوع من نماذج المخ، الذي يأخذ البيانات عبر طبقات عديدة، يعني أنه لا يمكن تحديد الاستجابة بسهولة.
“التكيف مضمون اللعبة بأكملها”
أراد علماء مثل ميد وكوهونن إنشاء نظام يمكنه التكيف بالفعل مع العالم المحيط به، ويستجيب لمتطلباته. كان ميد واضحا في أن قيمة الشبكات العصبية تكمن في أنها يمكن أن تسهّل هذا النوع من التكيف، مضيفا أنه في ذلك الوقت، وبالتركيز على هذا الهدف، يكون الوصول إلى تحقيق التكيف هو “مضمون اللعبة بأكملها”، ويعتقد أن هذا التكيف ضروري، “بسبب طبيعة الواقع”، وخلص إلى أن هذا العالم “متغير جدا بحيث لا يمكن عمل أي شيء بطريقة مطلقة وثابتة”.
في نفس الوقت تقريبا، في تسعينيات القرن الماضي، جادل ستيفن غروسبيرغ، خبير الأنظمة المعرفية في مجالات الرياضيات وعلم النفس والهندسة الطبية الحيوية، بأن التكيف سيكون خطوة مهمة على المدى الطويل.
واعتقد غروسبيرغ، بعيدا عن وضع نماذج للشبكة العصبية، أن الأمر كله “يتعلق بكيفية تصميم أنظمة قياس وتحكم بيولوجية تهدف إلى التكيف بسرعة مباشرة مع عالم سريع التغير”. وكما اتضح سابقا عند الحديث عن حلم كوهونن بنظام قائم على “التنظيم الذاتي”، يصبح “عالم الواقع” هو السياق الذي يجري فيه ترميز الاستجابة والتكيف داخل هذه الأنظمة. وتعد طريقة فهم هذا الواقع وتصوراته بلا شك الطريقة التي يمكن بها تصميم أنظمة التكيف هذه.
طبقات مخفية
كلما تعددت الطبقات، وصل التعلم العميق إلى مناطق جديدة أكثر عمقا، ويمكن تدريب الشبكة العصبية باستخدام بيانات يقول لاري هارديستي، كاتب علوم الكمبيوتر، إنه يجري “دفعها لتغذية الطبقة السفلية – طبقة المدخلات – ثم تمر عبر طبقات تالية، وتتعدد وتُضاف معا بطرق معقدة، حتى تصل أخيرا إلى طبقة المخرجات”.
و كلما زاد عدد الطبقات، زاد التحول وزادت المساحة بين المدخلات والمخرجات. ويضيف هارديستي أن تطوير وحدات معالجة الرسومات (GPUs)في الألعاب، على سبيل المثال “مكّن الشبكات ذات الطبقة الواحدة في ستينيات القرن الماضي والشبكات المكونة من طبقتين إلى ثلاث طبقات في ثمانينيات القرن الماضي من التطور اليوم لتصبح شبكات من 10 أو 15 أو حتى 50 طبقة”.
ويقول هارديستي إن زيادة عمق الشبكات العصبية، في واقع الأمر، هو “ما يشار إليه بـ (العميق) في تعبير (التعلم العميق)”. ويقول إن هذا مهم لأن “التعلم العميق مسؤول حاليا عن أفضل الأنظمة أداء في كل مجال تقريبا من مجالات أبحاث الذكاء الاصطناعي”.
بيد أن اللغز يزداد غموضا، مع تراكم طبقات الشبكات العصبية بشكل أكبر، وزيادة تعقيدها. وأدى ذلك أيضا إلى زيادة ما يشار إليه بـ “الطبقات المخفية” في هذه الأعماق. ولاتزال مناقشات تحديد العدد الأمثل للطبقات المخفية في الشبكة العصبية جارية.
وكتبت الباحثة الإعلامية بياتريس فازي قائلة: “نظرا للطريقة التي تعمل بها الشبكة العصبية العميقة، اعتمادا على الطبقات العصبية المخفية المحصورة بين الطبقة الأولى من الخلايا العصبية (طبقة المدخلات) والطبقة الأخيرة (طبقة المخرجات)، فإن تقنيات التعلم العميق تكون غالبا مبهمة أو غير مقروءة حتى للمبرمجين الذين صنعوها في الأصل”.
وكلما ازدادت الطبقات (بما في ذلك تلك الطبقات المخفية) أصبحت أقل قابلية للتفسير – حتى بالنسبة للذين صنعوها. كما أكد نفس الشيء الخبيرة الإعلامية البارزة، كاثرين هايلز، إذ قالت إن ثمة حدودا “لمقدار ما يمكننا معرفته عن النظام، وهي نتيجة تتعلق بـ (الطبقة المخفية) في الشبكة العصبية وخوارزميات التعلم العميق”.
تعد جميع هذه التطورات المستمرة جزءا مما سمته عالمة الاجتماع التكنولوجي، تاينا بوشر، بـ “إشكالية المجهول”. وفي خطوة تهدف إلى توسيع نطاق البحث المؤثر في المعرفة العلمية في مجال الذكاء الاصطناعي، أشار الكاتب، هاري كولينز، في كتابه بعنوان “الذكاء الاصطناعي: ضد استسلام البشرية لأجهزة الكمبيوتر”، إلى أن الهدف من الشبكات العصبية هو أن الإنسان يصنعها، في البداية على الأقل، ولكن “بمجرد كتابة البرنامج تبدأ حياتها الخاصة، بدون جهد كبير، ويمكن أن تظل الطريقة التي يعمل بها البرنامج غامضة”.
وهناك احتمال كبير أنه كلما زاد تأثير الذكاء الاصطناعي على حياتنا، تراجع فهمنا لطريقة العمل أو سببها، بيد أن العديد من الناس لا تقبل ذلك اليوم، ونرغب في معرفة كيف يعمل الذكاء الاصطناعي وكيف يصل إلى القرارات والنتائج التي تؤثر علينا.
فمع استمرار تطور الذكاء الاصطناعي في تشكيل معرفتنا وفهمنا للعالم، واكتشافاتنا، ومعاملاتنا، وطرق التعلم، والاستهلاك، والتفاعل، سيظل الدافع من أجل الفهم متناميا. وعندما يتعلق الأمر بالذكاء الاصطناعي القابل للتفسير والشفافية، تخبرنا قصة الشبكات العصبية أنه من المحتمل أن نبتعد عن هذا الهدف في المستقبل، بدلا من الاقتراب من تحقيقه.