لماذا يحتاج الذكاء الاصطناعي إلى بوصلة أخلاقية قوية من أجل مستقبل إيجابي؟

44

AI بالعربي – خاص 

في عام 2023 ، سنبدأ في رؤية منهجية لتغذية البيانات والاختبار ومراقبة النتائج التي تضمن بوصلة أخلاقية لخوارزمياتنا، تمامًا كما تصور Asimov القوانين الأساسية الثلاثة للروبوتات قبل 80 عامًا، حيث يؤكد كارلوس مارتن، المؤسس المشارك والرئيس التنفيذي لشركة macami.ai، على الحاجة إلى تطور ذكي أخلاقيًا للذكاء الاصطناعي بينما نواصل النمو معًا في تعاوننا.

في عام 1942، قدم المؤلف إسحاق أسيموف قوانين الروبوتات الثلاثة بقصته القصيرة Runaround:

القانون الأول: لا يجوز للروبوت أن يؤذي إنسانًا ، أو يسمح للإنسان من خلال التقاعس بإيذائه.

القانون الثاني: يجب أن يمتثل الروبوت للأوامر الصادرة إليه من البشر إلا في الحالات التي تتعارض فيها هذه الأوامر مع القانون الأول.

القانون الثالث: يجب أن يحمي الروبوت وجوده طالما أن هذه الحماية لا تتعارض مع القانون الأول أو الثاني.

في هذه القصة والقصص اللاحقة مثل I أو Robot أو Bicentennial Man أو سلسلة Robot، تصور Asimov عالمًا كانت فيه البشرية أكثر تقدمًا من الناحية التكنولوجية من عالمنا، حيث ساعدت الروبوتات الذكية في المهام اليومية في المنزل وكانت سلعة، حيث كانوا رفقاء للمسنين ومربيات للأطفال وكانوا أيضًا عاملين. كان لهذه الروبوتات ما يسمى بالدماغ الإيجابي، وهو نوع من وحدة المعالجة المركزية التي تدير وتعالج رؤيتها وذكائها ووظائفها الحركية.

في يومنا هذا ومتاح للشركات ولعامة الناس هو ما يسمى بالذكاء الاصطناعي الضيق؛ يتم الوصول إلى هذا النوع من الذكاء الاصطناعي من خلال قنوات منفصلة أو واجهات برمجة تطبيقات حسب المهمة المطروحة على سبيل المثال، لمعالجة اللغة الطبيعية، يجب على المرء الاتصال بواحدة أو أكثر من القنوات واجهات برمجة التطبيقات المحددة التي توفر هذا النوع من الذكاء الاصطناعي. بالنسبة إلى Computer Vision، يجب على المرء أيضًا الاتصال بواحدة أو أكثر من القنوات واجهات برمجة التطبيقات المحددة. نفس الشيء هو الحال مع خوارزميات التعلم الآلي. ليس لدينا ذكاء اصطناعي يشمل كل شيء اليوم باستثناء التجارب هناك بالطبع، تقنيات ذكاء اصطناعي تجريبية تحاول الانتقال بها إلى المستوى التالي، والمعروفة باسم الذكاء الاصطناعي العام أو حتى تقنيات أخرى، مثل الذكاء الاصطناعي المعروف باسم PLATO.

التأثير العميق للذكاء الاصطناعي على حياتنا

التكنولوجيا المستخدمة من قبل الشركات وعامة الناس هي ما يُعتبر ذكاءً اصطناعيًا ضيقًا حتى مع وجود الذكاء الاصطناعي في فترة الطفولة الحقيقية، فإننا نشهد تأثيرًا عميقًا على حياتنا. نحن نرى أن وسائل التواصل الاجتماعي تمنحنا المزيد من المحتوى الذي يعيد تأكيد معتقداتنا، حتى لو كانت خاطئة. إذا كنت تعتقد أن الهبوط على سطح القمر كان مزيفًا، فسوف يجد الذكاء الاصطناعي في وسائل التواصل الاجتماعي المزيد من المحتوى لإبقائك مهتمًا إنه بارد. لا يهم إذا كان هناك مليون حقيقة أخرى تثبت خلاف ذلك، ستظل تقدم لك ما تريد لماذا؟ الأمر بسيط: المال يمكن لهذه الخوارزميات أن تغذي لك المزيد من الإعلانات عن طريق إبقاء مقل العيون مشغولة بهذا المحتوى. واضح وبسيط.

الذكاء الاصطناعي ليس معصومًا من الخطأ: من يتحمل عبء الأخلاق؟

لدينا حالات حدد فيها الذكاء الاصطناعي بشكل غير صحيح شخصًا محل اهتمام، أو حيث تواجه رؤية الذكاء الاصطناعي المزيد من المشاكل في تحديد الأشخاص ذوي البشرة الملونة، أو حالة نظام محاكم كنتاكي، باستخدام خوارزمية الذكاء الاصطناعي لتقييم مخاطر الشخص لتحديد إمكانية الكفالة فقط لتكتشف لاحقًا أن النظام حدد السود بشكل غير متناسب باعتبارهم خطرًا أعلى، في حين لم يكن هناك فرق كبير في السابق لقد رأينا خوارزميات الذكاء الاصطناعي تتجاهل السير الذاتية للأشخاص بناءً على أعمارهم. هناك أيضًا حالة AI TAY، التابعة لمايكروسوفت، والتي علمت تويتر في أقل من 16 ساعة أن تكون مغفلًا عنصريًا حيث بدأت في نشر تغريدات تحريضية ومسيئة عبر حسابها على تويتر، مما تسبب في إغلاق مايكروسوفت لها.

يتمثل الاختلاف مع الذكاء الاصطناعي وطرق التشفير السابقة في أن الذكاء الاصطناعي، في معظمه، عبارة عن خوارزمية إحصائية، في حين أن طرق الترميز أو اللغات السابقة هي حتمية، إذا كانت تدفقات أخرى تقليديًا، رأينا أن ممارسة الترميز تتطور إلى شيء أكثر صرامة، وتطورت العديد من المنهجيات والممارسات: الشلال، والرشيقة، والسكروم، وما إلى ذلك، كما تطورت الممارسات واللوائح لحماية المعلومات مثل PCI “لحماية معلومات حامل البطاقة”، أو HIPAA “لحماية معلومات المريض”، إلخ.

الغرض من هذه المنهجيات والممارسات هو على وجه التحديد تنظيم فوضى التنمية، وفرض التخطيط والممارسات التصميمية وإدخال طرق اختبار صارمة لأي تطوير قيد التنفيذ. الهدف النهائي هو الحصول على حلول برمجية قوية ومرنة تلبي الاحتياجات وتحمي أيضًا مصالح الأفراد والشركات.

كما ذكرنا، خوارزميات الذكاء الاصطناعي مختلفة. بيدرو دومينغوس، الأستاذ في جامعة واشنطن، صاغها جيدًا في كتابه، الخوارزمية الرئيسية: “خوارزميات التعلم هي البذور، والبيانات هي التربة، والبرامج المكتسبة هي النباتات المزروعة. خبير التعلم الآلي هو مثل المزارع، حيث يزرع البذور، ويروي التربة وتسميدها، ويراقب صحة المحصول، ولكن بخلاف ذلك يظل بعيدًا عن الطريق. لا توجد، اعتبارًا من اليوم، منهجية مقبولة بشكل عام لتغذية البيانات إلى خوارزميات التعلم الآلي الحالية. لا توجد أيضًا حواجز حماية تساعد في تحديد الصواب من الخطأ في هذه الخوارزميات.

في أكتوبر 2022، أصدر البيت الأبيض مخططًا لقانون حقوق الذكاء الاصطناعي، والذي يحاول في جوهره إثبات أن أنظمة الذكاء الاصطناعي يجب أن تكون آمنة وفعالة وخالية من التمييز، وتحترم خصوصية البيانات، وتجعل استخدامها معروفًا، ولها نطاق واسع. هيكل الرقابة البشرية. في رأيي، هذه محاولة رائعة في البداية، ومع ذلك، فهي لا تغطي أكثر القضايا وضوحًا وتأثيرًا: فهي تركز على النتيجة النهائية بدلًا من البداية، اسمحوا لي أن أشرح: لكي يتوافق نظام الذكاء الاصطناعي مع جميع متطلبات قانون حقوق الذكاء الاصطناعي، يجب تغذيته بالبيانات أولًا واضح وبسيط.

أعتقد أنه في عام 2023، سنبدأ في رؤية تكاثر ونضج المنهجيات الجديدة لتغذية البيانات واختبار نتائج خوارزميات الذكاء الاصطناعي. وفي رأيي، نحن بحاجة إلى التفكير في هذه الخوارزميات بطريقة مماثلة كما نفكر في حاجة البشر إلى الأخلاق والقيم، لتقدير الإنصاف والأخلاق. من الصعب التفكير فيهم على أنهم يحتاجون إلى بوصلة أخلاقية، لكن الحقيقة هي أن هذه الخوارزميات تؤثر على حياة الإنسان، وهذا ليس دائمًا للأفضل.

بالتعاون من أجل المستقبل
عندما ننفذ نماذج الذكاء الاصطناعي، نحتاج إلى اتخاذ خطوات وتخطيط وتصميم. هذه ممارسات شائعة بالفعل في عملية تطوير البرامج التقليدية. لماذا لا يوجد في الذكاء الاصطناعي؟ نحتاج إلى طرح أسئلة مثل هل ينطبق هذا النموذج على جميع الألوان والأجناس؟ هل تم تغذية هذا النموذج بكميات متساوية من بيانات العينة التي تمثل بشكل عادل الأشخاص الذين سيؤثر عليهم؟ هل نتائج هذا النموذج تحمي حقوق المواطنين بالتساوي؟ هل تمتلك هذه الخوارزمية طريقة لتحديد شيء لا ينبغي أن تقوله؟

باختصار، الذكاء الاصطناعي هو تقنية أكثر تطورًا من البرمجيات التقليدية. لماذا لا يكون لدينا منهجية لتغذية البيانات والاختبار ومراقبة النتائج التي تضمن بوصلة أخلاقية لخوارزمياتنا، تمامًا كما تصور Asimov القوانين الأساسية الثلاثة للروبوتات قبل 80 عامًا؟.

اترك رد

Your email address will not be published.