المعارضة لبرامج الذكاء الاصطناعي تزداد.. مصالح تجارية أم مخاوف حقيقية؟

33

AI بالعربي – متابعات

يبدو أن برامج الذكاء الاصطناعي المتطورة بقيادة “ChatGPT” باتت تكتسب معارضين بنفس الوتيرة السريعة التي تستقطب بها المعجبين، فبعد فترة قصيرة على إطلاق البرامج التي يُقال إنها ستغير شكل الحياة البشرية كما نعرفها، اندلعت معركة لا يعرف أحد نهايتها تطالب بوقف إطلاق تلك البرامج بل وحظر تشغيلها في بعض الدول.

ومنذ إطلاق “ChatGPT” سارعت الشركات المنافسة لإطلاق تطبيقات مماثلة، مما أشعل حرب منافسة في القطاع تشارك فيه “مايكروسوفت” و”ألفابت” المالكة لجوجل، وحتى شركات صينية مثل “بايدو” و”علي بابا”.

تأتي المخاوف في الوقت الذي تجذب فيه تلك البرامج انتباه المشرعين الأمريكيين بأسئلة حول تأثيرها على الأمن القومي والتعليم. وحذرت شرطة الاتحاد الأوروبي يوروبول من احتمال إساءة استخدام النظام في محاولات التصيد الإلكتروني والمعلومات المضللة والجرائم الإلكترونية.

مشكلات في الغرب

المثير للدهشة أن المشكلات جاءت أولا من أوروبا، إذ باتت إيطاليا أول دولة غربية تتخذ إجراءات ضد روبوت المحادثة المدعوم بالذكاء الاصطناعي.

ولا تتوفر خدمة “ChatGPT” في الصين وهونج كونج وإيران وروسيا وأجزاء من إفريقيا.

وأوقفت شركة “أوبن إيه.آي” المبتكرة لـ”ChatGPT” عمله في إيطاليا بعد أن حظرت هيئة حماية البيانات الحكومية استخدامه وبدأت تحقيقا بشأن الاشتباه في خرق تطبيق الذكاء الاصطناعي لقواعد الخصوصية.

واتهمت الهيئة “أوبن.إيه.آي” التي تدعمها “مايكروسوفت” أيضا بالفشل في التحقق من عمر مستخدمي التطبيق الذين من المفترض أن تبلغ أعمارهم 13 عاما فأكثر.

وقالت الهيئة المعروفة باسم “جارانتي” إن “تشات جي.بي.تي” يعاني “غياب أي أساس قانوني يبرر الجمع الهائل للبيانات الشخصية وتخزينها من أجل “تدريب” برنامج الدردشة الآلي”.

ومنحت الهيئة “أوبن.إيه.آي” مهلة للرد على الاتهامات أو قد تواجه خطر دفع غرامة تصل إلى 20 مليون يورو أو ما يعادل 4% من إجمالي مبيعاتها السنوية في جميع أنحاء العالم. من جانبها ردت الشركة بالامتثال للطلب الإيطالي وقالت “إنها تعكف بنشاط على تقليل البيانات الشخصية في تدريب أنظمة الذكاء الاصطناعي مثل “شات جي.بي.تي” لأنها تريد أن يتعرف الذكاء الاصطناعي على العالم وليس الأفراد”.

ولم تعلن “أوبن إيه.آي” تفاصيل حول كيفية تدريب نموذج الذكاء الاصطناعي الخاص بها.

وقالت “جوانا بيوركلوند” الباحثة في مجال الذكاء الاصطناعي والأستاذة المشاركة في جامعة أوميو في السويد “إن الافتقار إلى الشفافية هو المشكلة الحقيقية.. إذا قمت ببحث حول الذكاء الاصطناعي، يجب عليك أن تكون شديد الشفافية في هذا الشأن”.

قانون أوروبي متقادم

ومنذ إطلاقه قرب نهاية العام الماضي، أطلق “ChatGPT” فورة سباق تقني، مما دفع الشركات المنافسة إلى إطلاق منتجات مماثلة وشركات أخرى لدمج التكنولوجيا أو تقنيات مماثلة في تطبيقاتها ومنتجاتها.

بالطبع اجتذب تطور التكنولوجيا السريع انتباه الجهات التشريعية في العديد من البلدان. ويقول العديد من الخبراء إن هناك حاجة إلى تشريعات جديدة للتحكم في الذكاء الاصطناعي بسبب تأثيره المحتمل على الأمن القومي والوظائف والتعليم.

وقالت متحدثة باسم المفوضية الأوروبية “نتوقع من جميع الشركات العاملة في الاتحاد الأوروبي احترام قواعد حماية البيانات في الاتحاد. إن إنفاذ التشريع العام لحماية البيانات مسؤولية سلطات حماية البيانات في الاتحاد الأوروبي”.

لكن ثمة مؤشرات على أن الاتحاد ككل ربما لا يعارض التقنية التي تخطو أول خطواتها. وقالت نائبة الرئيس التنفيذي للمفوضية “مارجريت فيستاجر” إن المفوضية التي تناقش قانونا خاصا بالذكاء الاصطناعي داخل التكتل قد لا تميل إلى حظره.

وقالت “بغض النظر عن التكنولوجيا التي نستخدمها، يتعين علينا الاستمرار في تعزيز حرياتنا وحماية حقوقنا. ولهذا السبب لا نقوم بتنظيم تقنيات الذكاء الاصطناعي، وإنما ننظم استخداماتها”.

لكن ثمة انتقادات للقانون بسبب تقادمه، إذ يقول الخبراء إن القانون تم اقتراحه منذ عامين تقريبا وبالتالي فإن ما يتضمنه من مقترحات تبدو قديمة نظرا للتقدم السريع في هذا المجال وطرح خدمات جديدة ذات تنافسية عالية. وتحاول مؤسسات الاتحاد الأوروبي على الجانب الآخر تحديث القانون بحيث تستطيع التعامل بشكل مناسب مع خدمات “شات جي.بي.تي”.

تشير التقديرات إلى أن عدد مستخدمي “شات جي.بي.تي” بلغ 100 مليون مستخدم نشط شهريا في يناير، أي بعد شهرين فقط من إطلاقه، مما يجعله التطبيق الأسرع نموا في التاريخ وفقا لدراسة نشرها “يو.بي.إس” الشهر الماضي.

ماسك

الأمر لم يقتصر على ذلك، فقد دعا مالك “تويتر” و”تسلا” إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي إلى وقف تطوير أنظمة أقوى من “تشات جي.بي.تي” لمدة ستة أشهر بسبب مخاطر محتملة على المجتمع.

ودعا خطاب مفتوح مؤرخ في 22 مارس ضم أكثر من 1800 توقيع حتى نهاية الشهر الماضي إلى وقف نظام “تشات جي.بي.تي 4” الذي يمكن أن يجري محادثة أكثر شبها بالبشر ويؤلف الأغاني ويلخص الوثائق الطويلة.

وقال الخطاب الصادر عن معهد “فيوتشر أوف لايف”: “إنه يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية ومخاطرها ستكون تحت السيطرة”. وأضاف أن أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري تشكل أخطارا جسيمة على البشرية.

والمعهد مؤسسة غير ربحية تحصل على تمويلها بشكل أساسي من “ماسك فاونديشن” بالإضافة إلى مجموعة “فاوندرز بليدج” ومقرها لندن، ومؤسسة “سيليكون فالي كوميونيتي فاونديشن”.

وماسك أحد مؤسسي شركة “أوبن إيه.آي” وتستخدم شركته “تسلا” الذكاء الاصطناعي ضمن أنظمة القيادة الآلية في سياراتها.

وأبدى ماسك اعتراضات على أنظمة الذكاء الاصطناعي وقال إنها تشعره بالتوتر. ودعا السلطات التنظيمية لضمان أن تطوير الذكاء الاصطناعي يخدم المصلحة العامة.

وطلبت الرسالة المفتوحة وقف التطوير المتقدم للذكاء الاصطناعي حتى يتم إنشاء بروتوكولات سلامة مشتركة من جانب خبراء مستقلين ودعت المطورين إلى العمل مع صانعي السياسات بشأن الحوكمة.

وقالت الرسالة “هل يجب أن نسمح للآلات بإغراق قنواتنا المعلوماتية بالدعاية والكذب؟… هل يجب علينا تطوير عقول غير بشرية قد تفوقنا عددا وذكاء وتلغينا وتحتل مكاننا؟”. وذكرت أنه يجب عدم منح سلطة اتخاذ مثل تلك القرارات لقادة تكنولوجيين غير منتخبين.

وقال “جاري ماركوس” الأستاذ في جامعة نيويورك وهو من بين الموقعين على الخطاب: “الخطاب ليس مثاليا، لكن الروح سليمة: نحن بحاجة إلى الإبطاء حتى نفهم التداعيات على نحو أفضل”.

وأضاف “أصبح اللاعبون الكبار أكثر تكتما بشأن ما يفعلونه، مما يجعل من الصعب على المجتمع الدفاع عن أي أضرار قد تحدث”.

وقال “سوريش فينكاتاسوبرامانيان” الأستاذ في جامعة بروان والمدير المساعد بمكتب البيض الأبيض لسياسات العلوم والتكنولوجيا “هكذا تعمل تلك النماذج، من الصعب بناؤها ومن الصعب إضفاء الطابع الديمقراطي عليها”.

لكن الانتقادات التي وجهها ماسك إلى أنظمة الذكاء الاصطناعي يُنظر إليها بعين الشك. إذ اتهمه “جيمس جريمليمان” أستاذ القانون الرقمي والمعلومات لدى جامعة “كورنيل” بالنفاق الشديد لانتقاده الذكاء الاصطناعي نظرا للجدية التي حاربت بها “تسلا” المساءلة عن أنظمة الذكاء الاصطناعي المعيبة في سياراتها ذاتية القيادة.

وأضاف أن وقف تطوير أنظمة أقوى من “ChatGPT” فكرة جيدة، لكن الرسالة في حد ذاتها غامضة ولا تأخذ المشكلات التنظيمية على محمل الجد.

كان “ماسك” في السابق أعرب عن إحباطه جراء انتقادات من الهيئات التنظيمية لمساعي تنظيم أنظمة الذكاء الاصطناعي التي تستخدمها تسلا.

واضطرت تسلا في فبراير إلى استدعاء أكثر من 362 ألف سيارة لتحديث برامجها بعد أن قالت الجهات التنظيمية الأمريكية إن نظام مساعدة السائق قد يتسبب في حدوث أعطال، مما دفع ماسك إلى التغريد بأن إطلاق كلمة “استدعاء” على تحديثات لبرامج التشغيل عبر الإنترنت “عفا عليها الزمن وتمثل خطأ غير مُرض”.

دوافع تجارية

اتهم البعض ماسك بأن دوافعه لانتقاد أنظمة الذكاء الاصطناعي تجارية بحتة وبأنه يقوم بذلك لإبطاء المنافسة عبر عرقلة “أوبن إيه.آي” فحسب. فقد أفاد موقع “ذا انفورميشن” بأن ماسك يعكف على بناء فريق سينافس “أوبن إيه.آي” وأنه أجرى محادثات مع باحثين في القطاع بشأن إنشاء مختبر يعمل على تطوير منافس لـ”تشات جي.بي.تي”.

وقالت المصادر إن “ماسك” اختار “إيجور بابوشكين” لقيادة الفريق الجديد. وعمل “بابوكشين” في شركة “ديب مايند” التابعة لشركة “ألفابت” المالكة لجوجل والتي تركز على ابتكارات الذكاء الاصطناعي، كما عمل في شركة “أوبن إيه.آي”.

وأشار التقرير إلى أن “بابوشكين” أكد انخراطه مع ماسك بشأن مشروع جديد، مضيفا أن العمل لا زال في مراحله التمهيدية مؤكدا أن ماسك يهدف لبناء نموذج لغوي أكثر موثوقية بدلا من نموذج مع قيود أقل.

وشارك “ماسك” في تأسيس “أوبن إيه.آي” في عام 2015 كمؤسسة بحثية غير ربحية، لكنه ترك مجلس إدارتها في 2018 حيث قالت “أوبن إيه.آي” إن ذلك جاء لتجنب تضارب في المصالح مع توسع “تسلا” في تطوير قدرات الذكاء الاصطناعي الخاصة بها.

لكن “ماكس تيجمارك” رئيس معهد ” فيوتشر أوف لايف” قال إن الأمر ليس كذلك. وأضاف “إنه أمر مضحك للغاية.. شاهدت أناسا يقولون إن إيلون ماسك يحاول إبطاء المنافسة”، مشيرا إلى أن ماسك لم يكن له دور في صياغة الرسالة قائلا إن الأمر غير موجه لشركة واحدة.

انتقادات

نال الخطاب بوجه عام أيضا نصيبه من الانتقادات من زوايا أخرى.

ويقول خبراء إنهم يتفقون مع محتوى الخطاب من دعوة الحكومات لتنظيم التقنية سريعا، لكنهم ينتقدون مبررات هذا التنظيم التي عبر عنها الخطاب والتي تركز أكثر على احتمال تفوق أنظمة الذكاء الاصطناعي على الذكاء البشري، بينما تركز بشكل أقل على الأضرار المحتملة من الأنظمة الحالية في مجالات مثل المعلومات الخاطئة والتحيز والأمن السيبراني والتكاليف البينية الضخمة للكميات الهائلة من القدرات الحاسوبية والكهربائية اللازمة لتدريب وتشغيل مثل تلك الأنظمة.

وأعرب أربعة خبراء في الذكاء الاصطناعي عن قلقهم من الاستشهاد بعملهم في الخطاب. واستشهدت الرسالة بنحو 12 بحثا من خبراء بما في ذلك أكاديميون بالإضافة إلى موظفين سابقين وحاليين في “أوبن إيه.آي” و”جوجل” وشركتها التابعة “ديب مايند”.

واتهم المنتقدون معهد “فيوتشر أوف لايف” بإعطاء الأولوية لسيناريوهات متخيلة لنهاية العالم على المخاوف الأكثر إلحاحا بشأن الذكاء الاصطناعي مثل التحيزات العنصرية التي يتم برمجتها في تلك الآلات.

ومن بين الأبحاث التي تم الاستشهاد بها في الخطاب بحث بعنوان “حول مخاطر الببغاوات العشوائية” وهي ورقة بحثية شهيرة شاركت في تأليفها “مارجريت ميتشل” التي أشرفت سابقا على أبحاث الذكاء الاصطناعي الأخلاقية في “جوجل”.

وانتقدت ميتشيل” التي تشغل الآن منصب كبيرة علماء الأخلاقيات لدى شركة “هاجينج فيس” للذكاء الاصطناعي الخطاب قائله إنه من غير الواضح ما الذي يُعتبر أقوى من “شات جي.بي.تي”.

وأضافت “من خلال التعامل مع الكثير من الأفكار المشكوك بها كأمر مسلم به، فإن الخطاب جزم بمجموعة من الأولويات وقدم سردا عن الذكاء الاصطناعي يفيد مؤيدي المعهد… بينما يُعد تجاهل الأضرار النشطة في الوقت الحالي رفاهية لا نستطيع تحملها”.

وانتقد مؤلفان مشاركان لميتشيل هما “تيمينت جيبرو” و”إميلي إم باندر” الخطاب على موقع تويتر، فيما قالت الأخيرة إن بعض مزاعم الخطاب “منتزعة من سياقها”.

اعترضت أيضا “شيري دوري-هاكوهين” الأستاذة المساعدة في جامعة كونيتيكت أيضا على عملها المذكور في الرسالة. وكانت قد شاركت في تأليف ورقة بحثية العام الماضي تقول إن الاستخدام الواسع للذكاء الاصطناعي يشكل بالفعل مخاطر جسيمة.

وقال بحثها إن الاستخدام الحالي لأنظمة الذكاء الاصطناعي يمكن أن يؤثر على صنع القرار فيما يتعلق بتغير المناخ والحرب النووية والتهديدات الوجودية الأخرى.

لكنها قالت “إن الذكاء الاصطناعي لا يحتاج إلى الوصول إلى مستوى الذكاء البشري لكي يفاقم تلك المخاطر… هناك مخاطر غير وجودية مهمة جدا، لكنها لا تحظى بنفس القدر من لفت الانتباه الكبير”.

وردا على الانتقادات، قال “تجمارك” إنه يجب أخذ المخاطر القصيرة المدى والبعيدة المدى للذكاء الاصطناعي على محمل الجد.

وأضاف “إذا استشهدنا بشخص ما، فهذا يعني فقط أنه يؤيد تلك الكلمات التي استشهدنا بها، هذا لا يعني أنه يؤيد الخطاب أو يؤيد كل ما نعتقده”.

اتهامات بالتحيز

الأمر لم يقتصر على خبراء التكنولوجيا والجهات التشريعية، بل امتد إلى جماعات المجتمع المدني والتي دعت السلطات في الولايات المتحدة وأوروبا “لحماية الناس” من التهديدات التي تشكلها أنظمة الذكاء الاصطناعي.

وقدم المركز الأمريكي للذكاء الاصطناعي والسياسة الرقمية شكوى رسمية إلى لجنة التجارة الفيدرالية لوقف المزيد من الإطلاقات التجارية لـ”شات.جي.بي.تي” حتى يتم وضع ضمانات لمنع البرنامج من خداع البشر وترسيخ التحيز. ويتهم المركز “شات جي.بي.تي” بأنه برنامج منحاز ومضلل ويشكل خطرا على الخصوصية والسلامة العامة.

وطالب المركز، الذي يدعو إلى طرح الذكاء الاصطناعي ولكن بمعايير عادلة اجتماعيا، إلى إجبار شركة “أوبن إيه.آي” على تقديم تقييمات مستقلة لمنتجات “جي.بي.تي” الخاصة بها قبل وبعد إطلاقها، وتسهيل الإبلاغ عن المشكلات خلال تفاعل المستخدمين مع البرنامج. وأضاف في شكواه أن “تشات جي.بي.تي” أخفق في تلبية معايير لجنة التجارة الفيدرالية المتمثلة في “الشفافية القابلية للتفسير والعدالة والسلامة من الناحية التجريبية”.

وقال المركز إنه على سبيل المثال، كشف “تشات جي.بي.تي” عن سجلات المحادثات الخاصة بمستخدمين آخرين، كما وجد أحد باحثي الذكاء الاصطناعي أنه من الممكن “الاستيلاء على حساب شخص ما، وقراءة سجل المحادثات الخاص به، والوصول إلى معلومات عن الفواتير الخاصة به” دون أن يدرك ذلك على الإطلاق.

وقال “مارك روتنبرج” رئيس المركز إن لجنة التجارة الفيدرالية تتحمل مسؤولية واضحة للتحقيق وحظر الممارسات التجارية غير العادلة والمضللة”. وأضاف أنه يشعر بالقلق من وجود ضغوط تجارية تدفع الشركة إلى طرح منتج غير جاهز.

كما أصدرت منظمة المستهلك الأوروبية (بي.إي.يو.سي) دعوة إلى الجهات التنظيمية الأوروبية على مستوى الاتحاد الأوروبي والمستوى الوطني لبدء تحقيقات بشأن “ChatGPT”.

وقالت “أورسولا باشل” نائبة المدير العام للمنظمة “على الرغم من كل المزايا التي يجلبها الذكاء الاصطناعي إلى مجتمعنا، نحن لا نتمتع بالحماية في الوقت الحالي بما يكفي من الضرر الذي يمكن أن يسببه للناس… في غضون بضعة أشهر فقط، شهدنا إقبالا كبيرا على تشات جي.بي.تي وهذه ليست سوى البداية”.

ويقول الخبراء إن برامج الذكاء الاصطناعي تميل إلى اختلاق معلومات وهي ظاهرة معروفة في القطاع باسم (hallucination) ما يعني الهلوسة أو الهذيان، وكذلك تضخيم التحيزات الموجودة في المواد التي تم تدريب تلك النماذج اللغوية الكبيرة عليها.

وقالت باشل إن هناك ترقبًا لقانون الذكاء الاصطناعي الذي يناقشه الاتحاد الأوروبي، لكن القانون قد يستغرق سنوات لمناقشته وإقراره وهو أمر ليس جيدا بما يكفي نظرا لأن هناك مخاوف جدية حول كيفية قيام “تشات جي.بي.تي” وروبوتات المحادثة المماثلة بخداع الناس والتلاعب بهم.

وقال متحدث باسم المنظمة إنها تأمل في رؤية مجموعة متنوعة من السلطات تدخل إلى نطاق التحرك، بما في ذلك تلك المعنية بتنظيم سلامة المنتجات وحماية البيانات وحماية المستهلك.

في الوقت ذاته استبعد “نيكو هارتينغ” المحامي المعني بقطاع التكنولوجيا في برلين أن تتخذ الجهات التنظيمية على مستوى الاتحاد الأوروبي إجراءات ضد “أوبن إيه.آي” و”ChatGPT” في الوقت الذي ما زال فيه قانونها الخاص قيد التفاوض.

اترك رد

Your email address will not be published.