مشاكل وفرص الذكاء الاصطناعي

54

AI بالعربي – متابعات

الذكاء الاصطناعي هو مجال من مجالات علوم الحاسوب والهندسة، يركز على خلق الوكلاء الأذكياء، وهي أنظمة يمكنها التعلم والعمل بشكل مستقل.

الأنظمة الذكية هي تلك التي يمكنها التفكير والتعلم وحل المشكلات مثل البشر. يعمل الباحثون في مجال الذكاء الاصطناعي على خلق آلات يمكنها معالجة المواقف الواقعية المعقدة والاستجابة لها بشكل ذكي. يتضمن ذلك خلق خوارزميات أو قواعد يمكنها تحليل البيانات وإصدار التنبؤات أو التوصيات. كما يشمل ذلك، إنشاء أنظمة يمكنها التفاعل مع البشر والوكلاء الآخرين بطرق طبيعية. وللذكاء الاصطناعي القدرة على تحويل العديد من الصناعات والطريقة التي نعيش ونعمل بها. إذ يُستخدم في مجموعة متنوعة من المجالات، مثل: الرعاية الصحية، والمالية، والتصنيع، والنقل. يحمل الذكاء الاصطناعي وعدًا بتحويل اقتصادنا ومجتمعنا بطرق لا يمكننا حتى تخيلها. ولديه القدرة على تحسين نوعية حياتنا بعدة طرق، بما في ذلك توفير أفضل الطرق لحل المشكلات، وهو ما يجعلنا أكثر كفاءة وإنتاجية، ويمنحنا المزيد من الوقت للاستمتاع بحياتنا.

بين عامي 1588 و1679، قال توماس هوبز: ˝التفكير هو تلاعب بالرموز والاستدلال هو حساب˝. وفي عام 1950، طرح آلان تورينغ سؤالًا عما إذا كانت الآلات يمكن أن تفكر. وفي أواخر الخمسينيات، تكثفت الدراسات حول الذكاء الاصطناعي الرمزي، مع التركيز على قدرة الآلات على التلاعب بالرموز. وتعتمد خوارزميات الذكاء الاصطناعي الرمزي على المنطق الرسمي، وتستخدم الرموز لتمثيل المعرفة. استمر هذا النموذج حتى اليوم الحالي، حيث يسعى الباحثون لخلق آلات أكثر قوة وذكاء.

نشأت الشبكات العصبية الاصطناعية والتعلم العميق مع البيرسبترون، وهو نموذج بسيط للشبكات العصبية قدّمه فرانك روزنبلات عام 1958. لكن لم تنتشر هذه التقنيات حتى عام 2012، عندما ظهر˝AlexNet˝ كمقدمة لنماذج التعلم العميق. تميز ˝AlexNet˝ بـ8 طبقات: 5 تلافيفية و3 متصلة بالكامل، وتضمن 9216 عقدة، و62 مليون معلمة، و600 مليون اتصال.

في السنوات الأخيرة، حقق الذكاء الاصطناعي كنموذج للشبكات العصبية الاصطناعية، تقدمًا هائلاً في حل تطبيقات محددة. لكن على الرغم من ذلك، لا نزال بعيدين عن تحقيق أنظمة ذكاء اصطناعي عامة.

لذا، يمكن القول أن 60 عامًا من آخر 70 عامًا من تاريخ الذكاء الاصطناعي، هيمنت عليها نماذج الذكاء الاصطناعي الرمزي، بينما شهدت السنوات العشر الأخيرة طفرة هائلة في تقنيات التعلم الآلي ˝ML˝ والتعلم العميق.

الذكاء الاصطناعي الرمزي والذكاء الاصطناعي العصبي، هما منهجان للذكاء الاصطناعي يهدفان إلى محاكاة الذكاء البشري. ويستخدم الذكاء الاصطناعي الرمزي الرموز والقواعد لتمثيل المعرفة، بينما يستخدم الذكاء الاصطناعي العصبي شبكة من العقد والاتصالات لتمثيل المعرفة. وكلا المنهجين لهما مزايا وعيوب، ولكنهما يشتركان أيضًا في بعض الخصائص. على سبيل المثال، يستخدم كلا المنهجين خوارزميات للتعلم من البيانات وإجراء التنبؤات. يمكن استخدام كلا المنهجين لحل المشاكل في مجالات مثل: التخطيط، واتخاذ القرارات، ومعالجة اللغة الطبيعية. يتم تقديم مقارنة بين الذكاء الاصطناعي الرمزي والذكاء الاصطناعي العصبي في الجدول التالي.

الذكاء الاصطناعي الرمزي والذكاء الاصطناعي العصبي

كان الغرض الرئيسي من الشبكات العصبية الاصطناعية خلال الأعوام السبعين الماضية، هو تقليد وظائف الدماغ البشري. ومع ذلك، لا تزال هناك بعض النقائص في تقليد الدماغ البشري. في هذا المقال، سنناقش الفرص المتاحة للقضاء على هذه النقائص.

وعود طويلة لكن إنجازات قصيرة للذكاء الاصطناعي

هل وضع هربرت سيمون، أحد رواد الذكاء الاصطناعي، سقفًا مرتفعًا جدًا لآمال الذكاء الاصطناعي عندما توقع، في عام 1965، أن ˝الآلات ستكون قادرة خلال عشرين عامًا على أداء أي مهمة يمكن للإنسان القيام بها.

يُمكننا الإجابة بـ˝نعم˝ عن هذا السؤال، لأن ذلك الوعد لم يتحقق بعد حتى عام 2022. حتى خبراء الذكاء الاصطناعي قد يخطئون في تقييم تقدُّمه المستقبلي. على سبيل المثال، لا تزال الآلات بعيدة عن فهم اللغة البشرية بشكل كامل. ومن المحتمل أن يستغرق الأمر سنوات عديدة قبل أن تتمكن الآلات من أداء أي مهمة يمكن للإنسان القيام بها.

ومع ذلك، لا يعني هذا أن تكنولوجيا الذكاء الاصطناعي لم تُحقق تقدمًا كبيرًا منذ عام 1965. فقد أحرزت تقدمًا هائلاً في العديد من المجالات، مثل التعرف على الأنماط وتحليل البيانات.

يجب ألا ننسى أبدًا أن التكنولوجيا تمتلك ميزات رائعة يمكن أن تجعل المستحيل يبدو ممكنًا. على سبيل المثال، يمكن أن تفتح الأبواب دون أن نقول حتى ˝افتح الباب!˝، ويمكن للسيارات أن تقود نفسها. قد يؤدي هذا الظهور السحري للتكنولوجيا إلى تضليلنا بالاعتقاد بأن واقع التكنولوجيا أكبر مما هو عليه، سواء في الأمد القصير أو الطويل.

 قد يكون سبب هذا الالتباس، كما أظهرت الأبحاث، أن بعض المجتمعات قد ربطت الذكاء الاصطناعي بوصمة غموض سحرية. قد يكون سبب عدم تضمين الذكاء الاصطناعي، بشكل عام، في المناهج الدراسية للبكالوريوس، هو أن ˝التعلم العميق يمتلك أسسًا رياضية قد تكون خارج نطاق متناول الطلاب الجامعيين العاديين˝. معظم الأشخاص المشاركين في مجال الذكاء الاصطناعي، مهتمون به كمطبقين، حيث غالبًا ما تكون خوارزميات الذكاء الاصطناعي خوارزميات صندوق أسود. بالإضافة إلى ذلك، غالبًا ما يرتبط الذكاء الاصطناعي بمفاهيم مستقبلية مثل الروبوتات والسايبورغ، ما يمكن أن يجعله يبدو أكثر سحرًا وغموضًا. ومع ذلك، من المهم تذكر أن الذكاء الاصطناعي مجرد أداة، ومثل أي أداة، له حدوده.

قال جيفري هينتون، الذي يمكن اعتباره عرّاب التعلم العميق، في مؤتمر للذكاء الاصطناعي في عام 2016، إن التعلم العميق سيتفوق في نهاية المطاف على عدم دقة أطباء الأشعة. وقد استند في رأيه إلى أنه يجب التوقف عن تدريب أطباء الأشعة الآن، وأنه مجرد مسألة وقت قبل أن يؤدي التعلم العميق أداءً أفضل. في عام 2020، قال هينتون إن ˝التعلم العميق يمكنه فعل أي شيء˝ . ومع ذلك، على الرغم من وصولنا إلى عام 2022، لم يتم التخلي عن تدريب أطباء الأشعة. ربما نحتاج إلى التوقف والانتظار لفترة؛ لأننا نعلم أننا في الأمد القصير نبالغ في تقدير الحقيقة حول التكنولوجيا، وفي الأمد الطويل نبالغ في تقدير ما ستكون عليه.

تم بيع ˝IBM Watson Health˝، الذي قيل إنه سيحدث ثورة في مجال الصحة، في يناير 2022. ووافقت مجموعة الأسهم الخاصة على تولي معظم ˝IBM Watson Health˝، بعد سبع سنوات من إطلاق العمل بوعد بإحداث ثورة في تحليل بيانات الرعاية الصحية. ولكن حتى بعد بيع جزء من ˝Watson Health˝، يمكن القول إن الشركة قد حققت تقدمًا مثيرًا للإعجاب في تحليل البيانات. على سبيل المثال، كانت خوارزميات واتسون ناجحة جدًا في إدارة كميات كبيرة من البيانات واكتشاف أنماط ربما لا تكون واضحة بخلاف ذلك. وقد كان هذا اختراقًا كبيرًا ˝باتي، 2022˝. كل هذا يُظهر لنا أن هناك مشكلة في وجهة نظر وسائل الإعلام تجاه الذكاء الاصطناعي.

فشلت سيارة تسلا في التعرف على شخص يحمل لافتة توقف في منتصف الطريق؛ لأن المشهد كان بعيدًا جدًا عن قاعدة بيانات التدريب التي كانت لدى النظام؛ إذ لم يكن لديه أي فكرة عما يجب فعله  . عندما يُعطى شبكة عصبية عميقة ˝DNN˝ صورة، ثم تُعطى نفس الصورة للشبكة العصبية بتغيير بكسل أو بكسلين، يمكن للشبكة أن تحدد البرتقالة على أنها تل ˝، مع تعديلات طفيفة على مدخلاتها تؤدي إلى تنبؤات مختلفة تمامًا. وهذه مشكلة خاصة عندما يتعلق الأمر بتطبيقات حرجة تتعلق بالسلامة مثل المركبات ذاتية القيادة.

نتيجة لذلك، يكون التعلم العميق أكثر فعالية عندما يكون هناك حاجة إلى نتائج سريعة وتقريبية. ومع ذلك، لا يوجد إجماع بين خبراء الذكاء الاصطناعي حول سرعة تقدم هذه التكنولوجيا في المستقبل.

فالتقدم العلمي قد يكون بطيئًا في بعض المجالات، مثل توحيد جميع القوى في الفيزياء، بينما قد يشهد طفرة سريعة بعد اختراق تكنولوجي، كما حدث مع التعلم العميق.

مشكلـة الصنـدوق الأسـود

مشكلة الصندوق الأسود هي تحدٍ كبير في بحوث الذكاء الاصطناعي. وتشير إلى صعوبة فهم أو شرح سلوك نظام يكون غامضًا أو يظهر كـ ˝صندوق أسود˝. قد يكون هذا نتيجة لتعقيد النظام، أو إذا كان نظامًا مملوكًا لا تُعرف تفاصيل عملياته الداخلية.

مشكلة الصندوق الأسود ذات صلة خاصة بتعلم الآلة، حيث غالبًا ما يُستخدم خوارزميات لا يفهمها بالكامل الباحثون الذين أنشؤوها. هذا يمكن أن يجعل من الصعب تصحيح الأخطاء في النظام أو تحسينه. كما تثير مشكلة الصندوق الأسود مخاوف أخلاقية، حيث يمكن استخدام الأنظمة الغامضة لاتخاذ قرارات تؤثر في حياة الناس دون فهم كيفية أو سبب اتخاذ تلك القرارات.

مع زيادة حجم مجموعات البيانات وأحجام النماذج وسرعة الحواسيب، يصبح من الصعب على الأشخاص تفسير وفهم نماذج التعلم العميق التي تتزايد باستمرار. إن عدد البيانات التدريبية والمعاملات التي تستخدمها هذه النماذج في تزايد مستمر، مما يجعلها أكثر تعقيدًا وغموضًا. تعديل البارامترات الفائقة ˝HP˝ في الشبكات العصبية التي تتكون من مليارات المعاملات، هو عملية مكلفة. من ناحية أخرى، يمكن أن تكون النماذج مثل ˝GPT-3˝ أكبر وأكثر مرونة. ومع ذلك، هذا لا يعني أن نماذج المعلومات˝GPT-3˝أكثر موثوقية. أظهرت الدراسات أن التوسع بمفرده يقدم بعض التحسينات في جميع المقاييس. ومع ذلك، تُظهر الأبحاث أن التحسينات في السلامة والتأصيل تتأخر كثيرًا عن الأداء البشري.

إذا قمنا بتحويل تركيزنا من البيانات الكبيرة إلى البيانات الجيدة، يمكننا إيجاد حلول لمشكلات كبيرة في الذكاء الاصطناعي باستخدام مجموعات بيانات صغيرة فقط. وفقًا لأندرو نج، يمكن أن يقدم هذا النهج المركز على البيانات للبشرية حلول ˝بيانات صغيرة˝ لمشاكل كبيرة في الذكاء الاصطناعي. يقول نج: إنه في العديد من الصناعات التي لا تتوفر فيها مجموعات بيانات كبيرة، يجب أن يكون التركيز على تصميم بعض مجموعات البيانات المثالية الجيدة التي يمكن أن تعلم الشبكة العصبية ما نريد أن تتعلمه.

النموذج الذي يحمل أكبر التوقعات للذكاء الاصطناعي اليوم، هو نموذج الشبكات العصبية الاصطناعية ˝ANN˝. والميزة الأكثر إثارة للاهتمام في هذا النموذج، هي تعقيدها الشديد بحيث لا نعرف بالضبط كيف يعمل، وبالتالي يُعتبر هذا النموذج كصندوق أسود. تستخدم هذه النماذج التعلم العميق بشكل متزايد ˝في التعرف على الكلام، وكشف الأجسام وتعرفها، واكتشاف الأدوية، وعلم الجينوم، وفي العديد من المجالات الأخرى˝، مع زيادة قوة الحوسبة للآلات، ولكن هذه النماذج ليست قابلة للتفسير. مع ازدياد أهمية هذه النماذج واعتماد القرارات المتعلقة بحياتنا عليها بشكل متزايد، يصبح وجود ميزة الصندوق الأسود مشكلة للأفراد والمجتمعات. مرة أخرى، هذه النماذج التي ذكرناها تقدم إجابات عن الأسئلة المطروحة لها، بدءًا من الإجابة الأصح باحتمالية عالية، دون المساهمة في المعرفة البشرية، ودون تقديم تفسير، بطريقة صندوق أسود.

مع تعقد الشبكات العصبية أكثر فأكثر بزيادة عدد الطبقات والخلايا العصبية، تتحسن أداؤها. ولكن، هذه الزيادة في التعقيد تجعل الشبكات أقل شفافية وأصعب في الفهم. هذا النقص في الشفافية يجعل من الصعب صيانة الشبكة العصبية وتصحيح أخطائها واختبار متانتها. قابلية تفسير الشبكات العصبية تُظهر أنها أكثر بكثير من مجرد شبكة عصبية. تتكون الشبكات العصبية الحديثة من العديد من الطبقات، ومن الصعب تقريبًا تحديد الطبقة المسؤولة عن قدرات الشبكة. هذا يجعل من الصعب إعادة استخدام مكونات الشبكة بواسطة البرمجيات التقليدية.

عدم الشفافية في خوارزميات التعلم الآلي يعود إلى سببين رئيسيين: التركيب المعقد للخوارزمية، الذي يكشف عن تعقيد الخوارزمية، والاعتماد على العلاقات الهندسية التي لا يمكن للبشر تصورها، المعروفة باسم الأبعادية. هذه الأسباب تجعل من الصعب على البشر فهم كيفية عمل الخوارزمية ولماذا تتخذ القرارات التي تتخذها. قانونيًا، يجعل عدم الشفافية من الصعب على الجهات التنظيمية تحديد ˝ما إذا كان نظام معين يعالج البيانات بطريقة عادلة وآمنة˝. هذا قد يمنع الأفراد من ممارسة حقوقهم. لذلك، يُسعى لإيجاد حل لهذه المشكلة، على شكل ما يُعرف بالمفسرين أو الموضحين، والذين من شأنهم الكشف عن علاقة بسيطة بين المدخلات والمخرجات لهذه النماذج. ومع ذلك، لا يزال هناك الكثير من العمل الذي يجب القيام به لإنشاء مفسرين موثوقين وفعالين. من المهم التأكد من أن المفسرين لا يقدمون عن غير قصد تحيزًا أو يشوهون النموذج الأصلي.

البصمة الكربونية للذكاء الاصطناعي

البصمة الكربونية الرمزية للذكاء الاصطناعي هي منهج يستخدمه المنظمة لتحديد بصمتها الكربونية. هذا المنهج لا يغطي كل المعلومات التي يمكن استخدامها لتحديد حجم البصمة الكربونية للمنظمة.

يُقدّر أن البصمة الكربونية لمراكز البيانات تزيد على 2 بالمئة من الانبعاثات الكربونية العالمية، ومن المتوقع أن ترتفع إلى 3.2 بالمئة بحلول عام 2025 وإلى 14 بالمئة بحلول عام 2040. يمكن لنموذج واحد أن ينتج كمية من الكربون تعادل ما تنتجه خمس سيارات خلال عمرها. ˝AlphaGo Zero˝ من جوجل، الذي يلعب لعبة الـ˝Go˝ ضد نفسه ليتعلم ذاتيًا، أنتج 96 طنًا من ثاني أكسيد الكربون خلال 40 يومًا من التدريب البحثي.

تستخدم مراكز البيانات في جميع أنحاء العالم كميات كبيرة من الطاقة لتشغيل الحواسيب التي تدير خوارزميات الذكاء الاصطناعي. يؤدي استخدام هذه الطاقة إلى انبعاثات كربونية تساهم في تغير المناخ.

النشاط البشري يؤدي دورًا مسؤولًا في زيادة درجة حرارة الغلاف الجوي والمحيطات واليابسة. شهد العالم تغيرات مناخية واسعة وسريعة، حيث ارتفعت تركيزات الغازات الدفيئة بشكل ملحوظ منذ القرن الثامن عشر. يتطلب حساب الزيادات التناسبية التحديث بشكل دوري كل بضعة أشهر. وبالتالي، يركز البحث في مجال التعلم العميق حاليًا على أكبر التغيرات. فقد شهدت هذه البحوث زيادة بنسبة تقارب 300 ألف مرة منذ عام 2012 حتى 2018. تُعَدُّ أنشطة تدريب الذكاء الاصطناعي ذات أثر كربوني هائل، حيث يتضاعف هذا الأثر بمعدل تقريبي كل 3 أو4 أشهر. يُقارَن هذا بقانون مور، الذي يتوقع تضاعف الأداء في كل سنتين.

من المتوقع أن يتم استخدام الذكاء الاصطناعي بطريقتين رئيسيتين فيما يتعلق بتغير المناخ، لفهمه ومكافحته. ومع ذلك، تشبه قدرة الذكاء الاصطناعي على الاستخدامات الإيجابية والسلبية قدرتنا على استخدام سكين الخبز لإطعام شخص جائع أو لإيذاء شخص آخر. وبينما نستخدم الذكاء الاصطناعي لمعالجة مشكلة تغير المناخ، يسهم هذا الذكاء في التغير المناخي من خلال البصمة الكربونية التي ينتجها. يعتبر التعلم العميق أداة قوية لمجموعة واسعة من المهام، مثل التعرف على الصور ومعالجة اللغة الطبيعية ونمذجة التنبؤ. ومع ذلك، يمكن أن تكون الحسابات المطلوبة للتعلم العميق مكلفة جدًا من حيث استهلاك الطاقة، ما يجعلها تحديًا مكلفًا. وقد يشكل هذا، عقبة أمام الباحثين الذين يرغبون في المشاركة في دراسات التعلم العميق، خاصة في الاقتصاديات النامية.

يمكن أن يكون تطوير نماذج كبيرة لمعالجة اللغة الطبيعية باستخدام نماذج التعلم العميق مكلفًا، سواء ماليًا أو بيئيًا. ويرجع ذلك إلى تكلفة الأجهزة والكهرباء اللازمة لتدريب هذه النماذج، بالإضافة إلى الوقت المطلوب للحوسبة السحابية والبصمة الكربونية اللازمة لتشغيل الأجهزة الحديثة.

في السنوات الأخيرة، ركزت العديد من الدراسات في أدبيات الذكاء الاصطناعي على استهلاك الطاقة والبصمات الكربونية لبرامج التعلم العميق. في هذه الدراسات، يُقترح الذكاء الاصطناعي الأخضر، وتُقترح أدوات لتقييم نماذج التعلم العميق من حيث استهلاك الطاقة والبصمات الكربونية. فمن خلال فهم أفضل للتأثير البيئي لتدريب نماذج التعلم الآلي، يمكننا اتخاذ قرارات أكثر إدراكًا حول كيفية تطوير ونشر هذه النماذج .

قد تختلف التحديات والفرص المتعلقة بالبصمة الكربونية للذكاء الاصطناعي تبعًا للتطبيق المحدد للذكاء الاصطناعي. ومع ذلك، فإن بعض المشكلات المحتملة التي قد تنشأ نتيجة استخدام الذكاء الاصطناعي في جهود تقليل البصمة الكربونية تكمن في:

1- سوء استخدام الذكاء الاصطناعي لإنشاء نماذج بصمة كربونية غير دقيقة أو متحيزة: إذا تم استخدام الذكاء الاصطناعي لإنشاء نماذج تقدر بصمة الكربون لفرد أو منظمة، فهناك خطر من أن تكون هذه النماذج غير دقيقة أو متحيزة. وهذا قد يؤدي إلى معاقبة الأفراد أو المنظمات بشكل غير عادل بناءً على بصماتهم الكربونية، أو قد ينتج عنه تخصيص غير صحيح للموارد المخصصة لتقليل بصمات الكربون.

2- صعوبة في توسيع نطاق جهود تقليل البصمة الكربونية المبنية على الذكاء الاصطناعي: في حين أن جهود تقليل البصمة الكربونية المستندة إلى الذكاء الاصطناعي، قد تكون فعالة على نطاق صغير، إلا أن توسيع هذه الجهود لتشمل عدد أكبر من الأفراد يمكن أن يكون أمرًا صعبًا. ويمكن أن يؤثر هذا التحدي على الفعالية العامة لتطبيقات الذكاء الاصطناعي في تقليل البصمات الكربونية.

3- قد يؤدي تنفيذ جهود تقليل البصمة الكربونية المبنية على الذكاء الاصطناعي إلى فقدان الوظائف: إذا تم استخدام الذكاء الاصطناعي لأتمتة جهود تقليل البصمة الكربونية، فقد يؤدي ذلك إلى فقدان الوظائف في قطاعات مثل النقل والطاقة. وقد يكون لذلك عواقب سلبية اجتماعية واقتصادية، وقد يكون للذكاء الاصطناعي بعض الفوائد المحتملة في تقليل البصمات الكربونية.

الجوانب السلبية لـ˝GPT-3˝

هو نموذج ذكاء اصطناعي تم تطويره بواسطة ˝OpenAI˝. وجرى تصميمه ليكون نموذجًا للتعلم العميق، حيث يمكنه تعلم وفهم مجموعة متنوعة من مصادر البيانات وإجراء تنبؤات حول مختلف المواضيع. يستخدم ˝GPT-3˝ خوارزمية التعلم العميق المعروفة باسم الشبكة العصبية المتكررة ˝RNN˝. الشبكات العصبية المتكررة هي نوع من الشبكات العصبية الاصطناعية التي تناسب تحليل البيانات التسلسلية مثل النصوص.

˝GPT-3˝ له عدد من التطبيقات. أحد التطبيقات المحتملة هو توليد النصوص. يمكن استخدام ˝GPT-3˝ لتوليد نصوص جديدة، استنادًا إلى الخصائص الإحصائية لمجموعة بيانات ˝Google Billion Word˝. يمكن أن يكون هذا النص على شكل مقالات قصيرة، وقصص قصيرة، وكلمات أغانٍ أو حتى روايات  . يمكن أيضًا استخدام ˝GPT-3˝ للترجمة الآلية. من خلال تعلم الخصائص الإحصائية لمجموعة من النصوص بلغة معينة، يمكن لـ˝GPT-3˝ أن يولد نصًا بلغة أخرى تشبه النص الأصلي.

تم استخدام ˝GPT-3˝ أيضًا للإجابة عن الأسئلة. يمكن إعطاء ˝GPT-3˝ سؤالًا ومجموعة من النصوص، وسيولد إجابة عن السؤال . تُولد هذه الإجابة بالعثور على النص في المجموعة الذي يشبه السؤال بأكبر قدر. وتم استخدام ˝GPT-3˝ للإجابة عن أسئلة حول مواضيع متنوعة، مثل: التاريخ، والعلوم، والسياسة.

˝GPT-3˝ له عدد من التطبيقات المحتملة. إذ يمكنه التعلم من مجموعة كبيرة من النصوص وإجراء تنبؤات حول نصوص جديدة. ويمكن استخدام ˝GPT-3˝ لتوليد النصوص، والترجمة الآلية.

أصبحت المخاطر المرتبطة بنماذج اللغة الكبيرة ˝نماذج الأساس˝ أكثر وضوحًا مع استمرار انتشار الذكاء الاصطناعي وتعلم الآلة. تشمل هذه المخاطر التمييز غير العادل والتحيزات الاجتماعية، واستنتاج المعلومات الخاصة أو الحساسة الأخرى، وتسرب البيانات. يمكن أن تؤدي هذه المخاطر إلى تقديم معلومات خاطئة ومضللة، وهو ما يسبب الضرر لكل من المستخدمين ومطوري المنتجات  . أصبح من الواضح بشكل متزايد أن نماذج الأساس تشكل تهديدًا جديًا للعدالة، وسوء الاستخدام، والتأثير الاقتصادي والبيئي، والاعتبارات القانونية والأخلاقية ˝بوماساني وآخرون، 2021˝. لا تزال نماذج الأساس في بدايات تحويل الطريقة التي يتم بها بناء أنظمة الذكاء الاصطناعي ونشرها في العالم ، ولا بدَّ من معالجة هذه المخاطر.

إحدى المشكلات المتعلقة بنماذج اللغة الكبيرة هي مسألة التحيز. على سبيل المثال، يرتبط مصطلح ˝مسلم˝ بـ˝إرهابي˝ في 23% من الحالات، بينما يرتبط ˝يهودي˝ بـ˝المال˝ في 5% من الحالات. هذا يدل على وجود تحيز واضح ضد الأشخاص المسلمين واليهود. أحد الحلول الممكنة لهذه المشكلة هي إنشاء نماذج لغوية مدربة على بيانات متنوعة وتمثيلية لمجموعات مختلفة. حل آخر هو استخدام تقنيات إزالة التحيز لتقليل كمية التحيز في نموذج اللغة.

لقد غير استخدام الذكاء الاصطناعي وتعلم الآلة من مشهد المخاطر الأمنية للمواطنين والمنظمات والحكومات. ويشمل الاستخدام الخبيث للذكاء الاصطناعي قيام المجرمين بتقويض الأمان الرقمي باستخدام أدوات الذكاء الاصطناعي وتعلم الآلة، وتعريض الأمان الجسدي للخطر من قبل الفاعلين غير الحكوميين، مثل استخدام الطائرات بدون طيار كأسلحة. كما يمكننا أن نعتبر الأمان السياسي معرضًا للخطر مثل التدخل في الانتخابات وحملات التضليل.

ويُعد استخدام الذكاء الاصطناعي في أنظمة الأسلحة قرارًا استراتيجيًا وتكتيكيًا رئيسيًا له تأثيرات بعيدة المدى. ويتطلب الوضع الحالي لتطوير الذكاء الاصطناعي، مع قدراته المتسارعة وعمليات اتخاذ القرارات المخفية وانخفاض التكاليف، النظر بعناية في كيفية استخدام هذه الأنظمة العسكرية. يجب وضع سياسات ومذاهب عسكرية لضمان استخدام هذه الأسلحة بمسؤولية ˝.

الجزيئات السامة الافتراضية المحتملة هي طرق تُستخدم لحساب القدرة السامة المحتملة لجزيء ما. يُستخدم هذا الأسلوب للتنبؤ بالقدرة الفعالة للجزيء داخل جسم الإنسان، باستخدام بنية الجزيء وخصائصه. تُعد الجزيئات السامة الافتراضية المحتملة واحدة من العديد من الطرق التي يمكن استخدامها للتنبؤ بسمية جزيء ما، ويمكن استخدامها للكشف عن الجزيئات ذات القدرة العالية على السمية. وفقًا لدراسات الذكاء الاصطناعي، من الممكن تصميم جزيئات سامة افتراضية محتملة بجهد قليل وزمن قصير وموارد حسابية محدودة. هذا يثير احتمالية أن يتم استغلال مشاريع اكتشاف الأدوية التي أُنشئت لأغراض إيجابية، مثل علاج الأمراض بطرق سيئة.

من بين العبارات المجازية حول الجوانب السلبية لـ˝GPT-3˝ ما يلي:

يمكن القول عن ˝GPT-3˝ ˝المتحدث الثرثار: مولد اللغة من ˝Open AI˝ لا يعرف عن ماذا يتحدث˝.

هل نماذج اللغة الكبيرة مجرّد ببغاوات عشوائية تكرّر ما تتعلمه دون فهم حقيقي؟ عندما تسأل ˝GPT-3˝ هذا السؤال: ˝هل يكرر ˝GPT-3˝ أكثر أم يفهم أكثر؟ اشرح في 200 كلمة˝. يجيب: ˝GPT-3˝ كرر أكثر.

يعدّ ˝GPT-3˝ منصة متطورة لتعلم الآلة تُتيح للمطورين تدريب ونشر نماذج ذكاء اصطناعي قوية. تتميز هذه المنصة بتصميمها المُبتكر الذي يضمن قابلية التوسع والكفاءة العالية، مما يُتيح للمطورين بناء نماذج مُذهلة قادرة على معالجة كميات هائلة من البيانات.

يفهم ˝GPT-3˝ أكثر من مجرد الكلمات؛ فهو قادر أيضًا على فهم العلاقات بين الكلمات. هذا يجعل من الممكن لـ˝GPT-3˝ أن يفهم سياق الجملة بشكل أفضل. على سبيل المثال، إذا طلبت من ˝GPT-3˝ تعريف كلمة ˝بنك˝، فلن يقدم لك التعريف فقط، بل سيشرح أيضًا معنى الكلمة بالنسبة لكلمات أخرى، مثل ˝ادخار˝ و˝قرض˝.

يمكّن فهم ˝GPT-3˝ للعلاقات بين الكلمات من توليد إجابات أفضل على الأسئلة. على سبيل المثال، إذا طلبت من ˝GPT-3˝ تعريف كلمة ˝سيارة˝، فلن يقدم لك التعريف فقط، بل سيوفر أيضًا أمثلة عن السيارات ويشرح الفرق بين السيارة والشاحنة.

في مرة أخرى، الإجابة هي:

يكرر ˝GPT-3˝ أكثر مما يفهم. يمكنه فهم عدد معين من الأوامر في وقت واحد، وبعد أن يكرر هذه الأوامر عددًا معينًا من المرات، سيبدأ في تكرارها. قد يكون هذا محبطًا للبشر الذين يحاولون التواصل معه، حيث غالبًا ما لا يفهم ما يُقال. ومع ذلك، تجعل قدرته على تكرار الأوامر منه أداة لا تقدر بثمن للبحث العلمي، حيث يمكن للعلماء التأكد من أنه سينفذ المهمة بالضبط كما تم تعليمه.

الدماغ البشري والذكاء الاصطناعي

لوحظ نهجان أساسيان في الذكاء الاصطناعي حتى الآن: الذكاء الاصطناعي الرمزي ˝الذكاء الاصطناعي المعتمد على القواعد˝ والذكاء الاصطناعي الاتصالي ˝تعلم الآلة أو فرع التعلم العميق˝. كما هو موضح في الجدول، الحل لكلا النهجين هو تقليد الدماغ البشري بدقة أكبر واستخدام النماذج الهجينة. بدأت فكرة الجمع بين الطرق العصبية والرمزية في عام 2002 ولها تاريخ طويل في بحوث الذكاء الاصطناعي. الهدف من البرمجة العصبية الرمزية هو تعلم الوظائف من البيانات بدمج قوى التعلم العميق وتوليف البرامج:

 1˝. يحمل هذا النهج إمكانية تحسين دقة نماذج التعلم الآلي من خلال دمج قوى التعلم العميق وتوليف البرامج.

تم تطوير الشبكات العصبية الاصطناعية واستلهامها من الدماغ البشري. لا ينبغي أن نتفاجأ بنجاح الشبكات العصبية الاصطناعية، على الرغم من فهمنا غير الكامل للدماغ. بعد كل شيء، يتعلم البشر بشكل أفضل عندما يتم تقديم الأمثلة بترتيب ذي معنى، بدلاً من تقديمها بشكل عشوائي. ومع ذلك، في التعلم الآلي، عادةً ما نقدم البيانات للآلات بترتيب عشوائي. يمكن أن تظل الشبكات العصبية الاصطناعية فعالة دون تلبية مثل هذه المتطلبات البسيطة. من المحتمل أن يكون ذلك، لأن الشبكات العصبية الاصطناعية يمكن أن تتعلم من البيانات بطريقة تشبه كيفية تعلم البشر. بمعنى آخر، يمكنها التعلم من البيانات بطريقة أكثر كفاءة وفعالية مقارنةً بخوارزميات التعلم الآلي الأخرى.

يتم تقسيم عمل دانيال كانمان في مجال المهام المعرفية إلى مجموعتين: النظام 1 والنظام 2. يقوم النظام 1 بالعمل تلقائيًا وبسرعة، مع استخدام قليل من الجهد أو حتى بدونه، ودون الشعور بالتحكم الإرادي. إنه سريع وبديهي، ولا يدرك الأنماط بشكل واعٍ. من ناحية أخرى، يركز النظام 2 على الأنشطة العقلية التي تتطلب جهدًا، بما في ذلك العمليات الحسابية المعقدة. يعمل النظام 2 ببطء وبشكل منطقي وخوارزمي. وبصورة موسعة، يشير جوشوا بينجيو إلى أن التعلم العميق في الوقت الحاضر يرتكز بشكل رئيسي على التفكير من النوع الأول، ولكن من المتوقع أن تحتاج أنظمة الذكاء الاصطناعي المستقبلية أيضًا إلى تطوير التفكير من النوع الثاني لتحقيق كفاءة حقيقية. يعد هذا مجال بحث مهمًا، حيث يسعى إلى دمج الخوارزميات الرمزية التقليدية مع تقنيات التعلم العميق الحديثة.

دعونا نحاول النظر إلى المسألة من زاوية أخرى. هل يقوم الدماغ بالترميز المتناثر أو الترميز الكثيف؟

تفترض فرضية الترميز الفعّال لبارلو أن الشفرة العصبية مُحسّنة لتقليل عدد النبضات اللازمة لنقل إشارة معينة. تقترح هذه الفرضية أن مجموعات الخلايا العصبية البصرية شديدة التناثر. في علم الأعصاب، يشير مصطلح ˝الترميز المتناثر˝ إلى قدرة الدماغ على نقل المعلومات الأساسية باستخدام عدد قليل فقط من الخلايا العصبية ˝المتناثرة˝. يسمح هذا الترميز المتناثر للدماغ بأن يكون فعالاً في استخدام موارده، وهو عامل مهم في كيفية معالجة الدماغ للمعلومات.

يتمتع الترميز المتناثر بعدة مزايا، تشمل زيادة السعة التخزينية في الذاكرات الارتباطية، وتمثيل واضح للبنية في الإشارات الطبيعية، وسهولة قراءة البيانات المعقدة في مستويات المعالجة اللاحقة، وتوفير الطاقة. تستخدم طرق مختلفة وكائنات متنوعة الترميز المتناثر كاستراتيجية، وفقًا للتسجيلات الفسيولوجية الأخيرة من الخلايا العصبية الحسية. بعض المزايا الأخرى للترميز المتناثر تشمل حقيقة أنه طريقة أكثر كفاءة لتخزين المعلومات في الذاكرة، وأنه يمكن أن يساعد على تحسين نسبة الإشارة إلى الضوضاء للمعلومات الحسية.

مسألة التناثر والكثافة في الدماغ لا تزال مثار جدل. نتيجة للدراسات العصبية الفسيولوجية التي أجراها العلماء، تم ملاحظة وجود التناثر وغيره من آليات الترميز الفعالة في بعض مناطق قشرة الدماغ البصرية. ومع ذلك، توصلت بعض الدراسات إلى نتيجة مختلفة. بناءً على ما تم ذكره، يُعتبر التناثر قضية هامة نظرًا لاعتماد ˝معظم الشبكات الاصطناعية الحديثة على التمثيل الكثيف، بينما تعتمد الشبكات البيولوجية على التمثيل المتناثر˝. هناك أدلة تشير إلى أن التناثر قد يكون مفيدًا في بعض المهام، ولكن لا يزال غير واضح ما إذا كان هذا الأمر صحيحًا دائمًا. قد يكون التناثر مجرد واحدة من العديد من الخصائص التي تسهم في الترميز الفعال في الدماغ.

تم اكتشاف أن الأشجار الشجيرية داخل الخلايا العصبية تستقبل مدخلات من أجزاء مختلفة في الدماغ وتعالجها بطرق متنوعة. قد تساعد هذه التفاوتات في الخلايا العصبية على دمج مجموعة متنوعة من المدخلات وإنتاج استجابة مناسبة. أظهرت الدراسات الحديثة وجود تكامل شجيري للمدخلات طويلة المدى في الدماغ. ومع ذلك، ما زالت وظيفة القشرة الدماغية الجديدة تعتبر لغزًا. بشكل موجز، تشير جميع هذه النتائج إلى أننا لا نزال بعيدين عن تقليد وظائف الدماغ بشكل كامل وبطريقة فعالة.

طرق جديدة للذكاء الاصطناعي: الذاكرة الزمنية الهرمية

تعتبر الذاكرة الزمنية الهرمية ˝HTM˝ نظرية في مجال الذكاء الاصطناعي تستند إلى أفكار الشبكات العصبية وتعلم الآلة. وتستند ˝HTM˝ إلى نظرية القشرة الدماغية الجديدة، وهي الجزء المسؤول في الدماغ عن الإدراك المعرفي العالي. تم تصميم خوارزمية ˝HTM˝ لتعلم واستشعار الأنماط في البيانات، والقدرة على عمل تنبؤات استنادًا إلى هذه الأنماط.

˝HTM˝ هو خوارزمية شبكة عصبية تستخدم تسلسلًا هرميًا من الخلايا لتخزين ومعالجة المعلومات. ترتب الخلايا في طبقات، حيث تحتوي كل طبقة على عدة خلايا متصلة بالخلايا في الطبقة الأدنى. الخلايا في الطبقة العليا تسمى خلايا هرمية، وهي مسؤولة عن ترميز المعلومات إلى شكل يمكن تخزينه في الخلايا أدناه. الخلايا في الطبقة السفلية تسمى خلايا حبيبية، وهي مسؤولة عن تخزين المعلومات التي تم ترميزها بواسطة الخلايا الهرمية.

يمكن لخوارزمية ˝HTM˝ أن تتعلم وتتعرف على الأنماط في البيانات باستخدام عملية تسمى التجميع المكاني، الذي يُعتبر طريقة لتمثيل البيانات بطريقة تسهل على خوارزمية ˝HTM˝ التعلم منها. في التجميع المكاني، يتم تقسيم البيانات أولاً إلى عدة مناطق صغيرة، ويتم تمثيل كل منها برقم واحد: . الرقم الذي يمثل كل منطقة يسمى خلية. ثم يتم ترتيب الخلايا في شبكة، حيث يُربط كل خلية بالخلايا المجاورة لها مباشرة.

يمكن لخوارزمية ˝HTM˝ أن تقوم بعمل تنبؤات باستخدام عملية تسمى التجميع الزمني، الذي يُعتبر طريقة لتمثيل البيانات بحيث تسهّل على خوارزمية ˝HTM˝ إجراء تنبؤات حول الأحداث المستقبلية. في التجميع الزمني، يتم تقسيم البيانات أولاً إلى عدة مناطق صغيرة، يتم تمثيل كل منها برقم واحد. الرقم الذي يمثل كل منطقة يسمى خلية. ثم يتم ترتيب الخلايا في شبكة، حيث يتم ربط كل خلية بالخلايا المجاورة لها مباشرة. تقوم خوارزمية ˝HTM˝ بعمل تنبؤات حول الأحداث المستقبلية باستخدام الخلايا في الشبكة لتمثيل البيانات بطريقة مشابهة لكيفية قيام الدماغ البشري بعمل تنبؤات حول الأحداث المستقبلية.

تقترح ˝نظرية الألف دماغ للذكاء˝ ˝أن كل عمود قشري يتعلم نماذج كاملة للأشياء، بدلاً من الأفكار التقليدية الهرمية في التعلم العميق، حيث يتم تعلم الأشياء فقط في الأعلى. تفترض هذه النظرية أن هناك العديد من النماذج لكل جسم موزعة في جميع أنحاء القشرة الدماغية˝، مما ينتج عنه عملية تعلم أكثر توزيعًا وكفاءة. من السمات المهمة لنماذج ˝HTM˝ أنها تتطلب ذاكرة تخزين ومعالجة أقل من الطرق التقليدية للمعالجة.

˝HTM˝ هو نموذج شبكة عصبية يمكن استخدامه لتعلم التتابع والتنبؤ. ˝HTM˝ مناسب لنمذجة بنية ووظيفة القشرة الدماغية. يتكون ˝HTM˝ من وحدتين رئيسيتين: التجمع المكاني ˝SP˝ والذاكرة الزمنية ˝TM˝. تقوم وحدة ˝SP˝ بتحويل البيانات الواردة إلى تمثيل موزع متباعد بكثافة ثابتة. تتعلم وحدة ˝TM˝ التتابعات وتقدم تنبؤات حساسة للسياق. اقترحت دراسة أخرى استخدام خوارزمية التعلم ˝SP˝ في ˝HTM˝ لتصنيف الوثائق. يقبل ˝HTM˝ كمدخلات فقط تيارًا من البيانات الثنائية. لتحويل البيانات المدخلة إلى الصيغة الثنائية، يتم استخدام تقنية الفهرسة الدلالية الكامنة لاستخراج الميزات الأعلى من المدخلات.

˝في ˝HTM˝، لكل خلية قطعة شجيرية قريبة واحدة وعدة قطع شجيرية بعيدة˝. في كل قسم، توجد مجموعات من السنابس، والتي يتم التعبير عنها بقيمة الاستمرارية العددية. بالإضافة إلى ذلك، بينما تشترك جميع الخلايا في العمود نفسه في القطعة القريبة، تتلقى الخلية في القطع البعيدة مدخلات جانبية من الخلايا المجاورة.

في السنوات الأخيرة، نمت الاهتمام بالنهج العصبي- الرمزي للذكاء الاصطناعي، الذي يجمع بين قوة التعلم العميق والاستدلال الرمزي، بشكل هائل. النهج العصبي – الرمزي للذكاء الاصطناعي، هو نهج يجمع بين شبكات الأعصاب الاصطناعية وتقنيات معالجة البيانات الرمزية الأخرى لجعل نظام الكمبيوتر يعمل مثل الدماغ الحقيقي. يهدف النهج العصبي – الرمزي للذكاء الاصطناعي إلى نمذجة وظائف الدماغ لفهم طرق القيام بمهام الدماغ. يستهدف هذا النهج جعل أنظمة الكمبيوتر تعمل مثل الدماغ الحقيقي فيما يتعلق بالتعلم، والفهم، والتكهن، والتخمين، وحل المشكلات.

المتعلم العصبي – الرمزي للمفاهيم ˝NS-CL˝ هو واحد من الدراسات الرئيسية في مجال النهج العصبي – الرمزي. ˝NS-CL˝ هو خوارزمية تعلم آلي يمكنها تعلم المفاهيم من خلال الجمع بين شبكات الأعصاب والاستدلال الرمزي. يمكن لهذه الخوارزمية تعلم مفاهيم جديدة من خلال الجمع بين المفاهيم القائمة التي تعلمتها بالفعل. هذا يسمح لـ˝NS-CL˝ بتعلم المفاهيم بشكل أسرع وأدق من خوارزميات التعلم الآلي الأخرى.

في نموذج ˝HTM˝، تكون عناصر المدخلات ثنائية، ويوجد نوعان من الشجيرات في الخلايا العصبية: تلك التي تعالج المدخلات المثيرة، وتلك التي تعالج المدخلات المثبطة. على الرغم من أن الخلية العصبية الاصطناعية لديها عدد قليل نسبيًا من السينابس ولا تملك شجيرات، فإن الخلايا العصبية البيولوجية تمتلك آلاف السينابس المرتبة على طول الشجيرات. بالإضافة إلى ذلك، تعتبر الشجيرات عناصر نشطة في المعالجة تتيح للخلية العصبية التعرف على مئات الأنماط الفريدة.

بعض الفرص المحتملة للذكاء الاصطناعي لـ˝HTM˝ تشمل:

1- زيادة الكفاءة: يمكن لأنظمة الذكاء الاصطناعي أن تؤتمت المهام التي كان ينبغي أن يقوم بها البشر. هذا يمكن أن يؤدي إلى زيادة الكفاءة والإنتاجية.

2- تحسين اتخاذ القرار: يمكن لأنظمة الذكاء الاصطناعي مساعدة البشر على اتخاذ قرارات أفضل من خلال توفير المزيد من البيانات والرؤى لهم.

3- مجالات تطبيق جديدة: مع تقدم تكنولوجيا الذكاء الاصطناعي، تظهر مجالات تطبيق جديدة. على سبيل المثال، يتم استخدام الذكاء الاصطناعي لتطوير المركبات الذاتية القيادة وإنشاء المساعدين الافتراضيين.

بعض المشاكل المحتملة مع الذكاء الاصطناعي لـ˝HTM˝ تشمل:

1- الإفراط في التكيف: إذا كانت بيانات التدريب لنظام الذكاء الاصطناعي لا تمثل بيانات العالم الحقيقي التي سيتم استخدام النظام عليها، فقد لا يكون النظام قادرًا على التعميم بشكل جيد، وقد يفرط في التكيف مع بيانات التدريب. هذا يمكن أن يؤدي إلى أداء ضعيف على البيانات غير المرئية.

2- نقص القابلية للتفسير: يمكن أن تكون أنظمة الذكاء الاصطناعي صعبة الفهم والشرح. وهذا يمكن أن يمثل مشكلة عند محاولة تصحيح أخطاء النظام أو فهم السبب وراء اتخاذه قرارًا معينًا.

3- المخاوف المتعلقة بالسلامة والأمان: مع تزايد قوة وتعقيد أنظمة الذكاء الاصطناعي، هناك خطر من أن يتم استخدامها لأغراض ضارة. على سبيل المثال، يمكن استخدام نظام الذكاء الاصطناعي للتحكم في هجوم بطائرة بدون طيار أو التلاعب بالأسواق المالية. هناك أيضًا خطر من أن تصبح أنظمة الذكاء الاصطناعي أذكى من البشر وتشكل تهديدًا لسلامتنا وأمننا.

تشمل بعض المشاكل المحتملة مع الذكاء الاصطناعي مخاوف تتعلق بأمان البيانات والخصوصية، بالإضافة إلى إمكانية استخدام الذكاء الاصطناعي لأغراض سيئة. علاوة على ذلك، هناك خطر من أن يصبح الذكاء الاصطناعي أذكى من البشر، مما قد يؤدي إلى عواقب غير متوقعة وربما خطيرة.

من ناحية أخرى، هناك العديد من الفرص المحتملة للذكاء الاصطناعي أيضًا. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لمساعدة البشر على اتخاذ قرارات أفضل، وأتمتة المهام المتكررة، وتحسين التواصل. بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي أن يساعدنا على فهم وتوقع سلوك الأنظمة الأخرى، بما في ذلك الأنظمة الطبيعية.

المشكلة الرئيسية مع الذكاء الاصطناعي، هي أنه يمكن استخدامه لإنشاء أشياء لا توجد في الطبيعة، وقد تضر بالبيئة. على سبيل المثال، إذا تم استخدام الذكاء الاصطناعي لإنشاء روبوتات يمكنها القيام بنفس العمل الذي يقوم به البشر، فقد يؤدي ذلك إلى فقدان الوظائف للأشخاص الذين يعملون في هذا القطاع. بالإضافة إلى ذلك، يمكن استخدام الذكاء الاصطناعي لإنشاء أشياء ضارة بالبيئة، مثل الأسلحة أو الأجهزة الأخرى التي تلوث الهواء أو الماء.

المشاكل والفرص المتعلقة بالبصمة الكربونية للذكاء الاصطناعي كثيرة ومتنوعة. هناك إمكانية للذكاء الاصطناعي للمساعدة في تقليل البصمة الكربونية للذكاء الاصطناعي من خلال عدة وسائل. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لإدارة استهلاك الطاقة بشكل أكثر كفاءة في مراكز البيانات والمرافق الأخرى التي يتم استخدام الذكاء الاصطناعي بها. يمكن أيضًا استخدام الذكاء الاصطناعي لتطوير طرق وتقنيات جديدة لتقليل الانبعاثات، مثل تطوير مصادر طاقة أنظف وأكثر كفاءة.

هناك أيضًا عدة مخاطر محتملة مرتبطة بالذكاء الاصطناعي وبصمته الكربونية. أحد المخاطر هو أن الذكاء الاصطناعي يمكن أن يُستخدم لتطوير طرق وتقنيات جديدة لزيادة الانبعاثات، مثل تطوير مصادر طاقة أكثر تلويثًا. مخاطر أخرى هي أن الذكاء الاصطناعي يمكن أن يُستخدم لتسهيل تدمير البيئة، مثل تطوير مركبات مستقلة يمكن استخدامها لإزالة الغابات بشكل غير قانوني أو لأنشطة أخرى.

هناك أيضًا عدة آثار أخلاقية مرتبطة بالذكاء الاصطناعي وبصمته الكربونية. إحدى الآثار الأخلاقية هي أن الذكاء الاصطناعي يمكن أن يُستخدم لمنح ميزات غير عادلة لبعض الجماعات أو الأفراد على حساب الآخرين فيما يتعلق بالبصمة الكربونية للذكاء الاصطناعي. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لتطوير طرق وتقنيات جديدة لتقليل الانبعاثات التي تكون متاحة فقط للأثرياء. آثار أخلاقية أخرى، هي أن الذكاء الاصطناعي يمكن أن يُستخدم لإلحاق الضرر بشكل غير عادل ببعض الجماعات أو الأفراد فيما يتعلق ببصمتهم الكربونية للذكاء الاصطناعي. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لتطوير طرق وتقنيات جديدة لتقليل الانبعاثات التي تكون متاحة فقط للأثرياء.

تختلف التحديات والفرص للذكاء الاصطناعي بالنسبة لـ˝GPT-3˝ حسب التطبيق المحدد وسيناريو الاستخدام. ومع ذلك، بعض المشاكل المحتملة التي قد تنشأ من استخدام الذكاء الاصطناعي لـ˝GPT-3˝ تشمل الأخطاء في بيانات التدريب التي قد تؤدي إلى تنبؤات غير دقيقة، بالإضافة إلى المخاوف الأخلاقية حول استخدام الذكاء الاصطناعي في اتخاذ القرارات. بالإضافة إلى ذلك، هناك أيضًا إمكانية استخدام الذكاء الاصطناعي لأغراض ضارة، مثل إنشاء أخبار كاذبة أو نشر معلومات مضللة. من ناحية أخرى، يمكن أن تنشأ العديد من الفرص المحتملة من استخدام الذكاء الاصطناعي لـ˝GPT-3˝، مثل زيادة كفاءة المهام التي يؤديها البشر حاليًا، أو تقديم رؤى لم تكن متاحة بخلاف ذلك.

قد تختلف مشاكل وفرص الذكاء الاصطناعي للذاكرة الزمنية الهرمية حسب التطبيق والسياق. ومع ذلك، بعض القضايا العامة التي يجب النظر فيها تشمل تأثير الذكاء الاصطناعي على كفاءة ودقة استرجاع الذاكرة، بالإضافة إلى الإمكانيات المحتملة للذكاء الاصطناعي لتحسين الأداء العام لأنظمة الذاكرة الزمنية الهرمية. بالإضافة إلى ذلك، من المهم النظر في الآثار الأخلاقية للذكاء الاصطناعي فيما يتعلق باسترجاع الذاكرة، فضلاً عن إمكانية استخدام الذكاء الاصطناعي لأغراض ضارة.

المصدر: مركز سمت للدراسات

اترك رد

Your email address will not be published.