الكابوس الحقيقي للذكاء الاصطناعي.. ماذا لو خدم البشر بشكل مفرط؟

30

Brian Kateman

لقد بدأ عصر الذكاء الاصطناعي، وجلب معه العديد من المخاوف الجديدة. يُكرَّس الكثير من الجهد والموارد المالية لضمان أن يبقى الذكاء الاصطناعي مطيعًا وينفذ فقط ما يرغب فيه البشر. ومع ذلك، ينبغي أن نشعر بالقلق بشكل أكبر إزاء الذكاء الاصطناعي الذي يتحكم فيه البشر. فالخطر الحقيقي يكمن فينا.

وهذا ليس هو الخطر الذي تسعى الصناعة جاهدة إلى معالجته. في فبراير، تم تأسيس شركة بأكملها تسمَّى Synth Labs لغرض صريح هو “محاذاة الذكاء الاصطناعي”، مما يجعلها تتصرف تمامًا كما ينوي البشر. ومن بين المستثمرين فيها شركة M12 المملوكة لشركة مايكروسوفت، وشركة First Start Ventures، التي أسسها الرئيس التنفيذي السابق لجوجل إريك شميدت. وقد وعدت شركة OpenAI، التي ابتكرت ChatGPT، بتوفير 20% من قوة المعالجة الخاصة بها إلى” المحاذاة الفائقة “التي من شأنها “توجيه أنظمة الذكاء الاصطناعي والتحكم فيها بشكل أكثر ذكاءً منا”. الشركات التقنية الكبرى متورطة في هذا بالكامل.

وهذا ربما يكون أمر جيد بسبب السرعة الكبيرة في تطور تقنيات الذكاء الاصطناعي. تتعلق معظم المحادثات حول مخاطر العواقب المحتملة لأنظمة الذكاء الاصطناعي التي تسعى لتحقيق أهداف تختلف عما تم برمجتها للقيام به، والتي لا تتماشى مع مصالح البشر يمكن للجميع أن يؤيدوا فكرة مواءمة الذكاء الاصطناعي وسلامته، لكن هذا ليس سوى جانب واحد من الخطر. تخيل ما يمكن أن يحدث إذا فعل الذكاء الاصطناعي ما يريده البشر.

بالطبع، “ما يريده البشر” ليس كتلة واحدة. يرغب الأشخاص المختلفون في أشياء مختلفة ولديهم أفكار لا تعد ولا تحصى حول ما يشكل “الخير الأعظم”. أعتقد أن معظمنا سيكون قلقًا بحق إذا كان الذكاء الاصطناعي متوافقًا مع رؤى “فلاديمير بوتين” أو “كيم جونغ أون” لعالم مثالي.

حتى لو استطعنا جعل الجميع يركزون على رفاهية الجنس البشري بأكمله، فمن غير المحتمل أن نتمكن من الاتفاق على كيفية ظهور ذلك. جعل “إيلون ماسك” هذا واضحًا، الأسبوع الماضي، عندما شارك على منصة “X”، أنه كان قلقًا بشأن الذكاء الاصطناعي الذي يدفع نحو “التنوع الإجباري”، وكونه متحمسًا جدًا لليقظة الاجتماعية”. وذلك عقب تقديم “ماسك” لدعوى قضائية ضد OpenAI، بحجة أن الشركة لم تفِ بوعدها بتطوير الذكاء الاصطناعي لصالح الإنسانية.

قد يعتقد الأشخاص ذوو التحيزات الشديدة بصدق أنه من مصلحة الإنسانية بشكل عام قتل أي شخص يعتبرونه شاذًا. الذكاء الاصطناعي “المتوافق مع الإنسان” هو في الأساس جيد، أو شرير، أو بنّاء، أو خطير بقدر الأشخاص الذين يقومون بتصميمه.

ويبدو أن هذا هو السبب وراء قيام Google DeepMind، ذراع تطوير الذكاء الاصطناعي في الشركة، مؤخرًا بتأسيس منظمة داخلية تركز على سلامة الذكاء الاصطناعي ومنع التلاعب به من قبل الجهات الفاعلة السيئة. لكن ليس من المثالي أن يتم تحديد ما هو “سيئ” من قبل حفنة من الأفراد في هذه الشركة بعينها (وحفنة من الشركات الأخرى مثلها)، مع نقاطهم العمياء وتحيزاتهم الشخصية والثقافية .

المشكلة المحتملة تتجاوز البشر الذين يؤذون بشرًا آخرين. ما هو “جيد” للإنسانية، قد جاء في كثير من الأحيان عبر التاريخ على حساب كائنات واعية أخرى. وهذا هو الوضع اليوم.

إن الهدف الأفضل من مواءمة الذكاء الاصطناعي مع المصالح المباشرة للبشرية، هو ما يمكن أن أسميه المواءمة الواعية، وتعني هذه المواءمة أن الذكاء الاصطناعي يعمل لمصلحة جميع الكائنات الواعية، بما في ذلك البشر وسائر المخلوقات الحية، وحتى الذكاء الاصطناعي الذي يمتلك الوعي، إن وجد. بمعنى آخر، إذا كان بإمكان كيان ما تجربة المتعة أو الألم، فيجب أن يؤخذ مصيره في الاعتبار عندما تتخذ أنظمة الذكاء الاصطناعي قراراتها.

قد يبدو هذا للبعض بمثابة اقتراح جذري، لأن ما هو جيد لجميع أشكال الحياة الواعية قد لا يتوافق دائمًا مع ما هو جيد للبشرية. قد يكون في بعض الأحيان، بل في كثير من الأحيان، متعارضًا مع ما يريده البشر أو ما هو الأفضل لأكبر عدد منا. وقد يعني ذلك، على سبيل المثال، إزالة الذكاء الاصطناعي من حدائق الحيوان، أو تدمير النظم البيئية غير الضرورية للحد من معاناة الحيوانات البرية، أو حظر التجارب على الحيوانات .

 

في حديثه، مؤخرًا، في بودكاست “All Thinks Considered”، جادل “بيتر سينجر”، الفيلسوف ومؤلف كتاب “تحرير الحيوان”، الذي يعتبر مرجعًا رئيسيًا صدر عام 1975، بأن الأهداف النهائية والأولويات لنظام الذكاء الاصطناعي هي أكثر أهمية من كونه متوافقًا مع البشر.

قال “بيتر سينجر”: “السؤال هو حقًا ما إذا كان هذا الذكاء الاصطناعي فائق الذكاء سيكون خيرًا ويرغب في إنتاج عالم أفضل، وحتى لو لم نتحكم فيه، فسوف ينتج عالمًا أفضل يُؤخذ فيه مصلحتنا بعين الاعتبار. قد تُتجاوز مصالحنا أحيانًا بمصالح الحيوانات أو بمصالح الذكاء الاصطناعي، لكن أعتقد أن ذلك سيكون نتيجة جيدة”.

أنا متفق مع “سينجر” في هذا الأمر. يبدو أن أكثر الأمور أمانًا ورحمة يمكننا القيام بها هي أخذ الحياة غير البشرية في الاعتبار، حتى لو كانت مصالح تلك الكيانات قد تتعارض مع ما هو الأفضل للبشر. إزاحة البشرية من مركز الاهتمام إلى أي مدى، وخاصة إلى هذا الحد الشديد، هي فكرة ستشكل تحديًا للناس. لكن ذلك ضروري إذا أردنا منع تفشي التمييز النوعي الحالي لدينا بطرق جديدة ومروعة.

ما يجب أن نسأله فعلاً هو أن نطلب من المهندسين توسيع دوائر التعاطف الخاصة بهم عند تصميم التكنولوجيا. عندما نفكر في “الأمان”، دعونا نفكر فيما يعنيه “الأمان” لجميع الكائنات الواعية، لا للبشر فقط. عندما نهدف إلى جعل الذكاء الاصطناعي “خيّرًا”، دعونا نتأكد من أن ذلك يعني الخير للعالم بأسره، لا لنوع واحد فقط يعيش فيه.

 

المصدر: Los Angeles Times

 

اترك رد

Your email address will not be published.