تحيُّز الذكاء الاصطناعي.. أخطاء تجربة استنزفت مليارات الدولارات

8

AI بالعربي – خاص

من الشائع الاعتقاد بأن أي مشروع تقني كبير، وخاصة في مجال الذكاء الاصطناعي مثل توليد النصوص والأفكار، يتطلب استثمارات ضخمة. وقد أدى هذا التطور التكنولوجي إلى تغيير جذري في العديد من المجالات، مما أثر على الوظائف والأعمال التقليدية. ومع ذلك، يجب تذكر أن أي مشروع، مهما كان حجمه أو طموحه، قد يواجه تحديات وعقبات قد تؤدي إلى خسائر مادية ومعنوية .وهذا يذكرنا بمثل “كبوة الماهر بألف”، الذي يوضح أن الأخطاء واردة حتى مع أفضل الخطط والتخطيط.

إنَّ قضية التحيُّز في الذكاء الاصطناعي تعتبر من القضايا الحيوية التي تثير قلق الباحثين والممارسين في هذا المجال. هذا التحيز قد ينشأ من عدة عوامل، منها البيانات المستخدمة لتدريب النماذج، حيث قد تكون هذه البيانات غير ممثلة لمختلف الفئات السكانية. كما يمكن أن تكون النتائج نتيجة لاختيارات التصميم والخوارزميات المستخدمة، مما يستدعي ضرورة إدخال أدوات لفحص هذه التحيزات وإجراء تقييمات دورية لضمان العدالة والشمولية في التطبيقات العملية.

تجربة أثارت الجدل

في بداية عام 2023، واجهت مايكروسوفت تحديات كبيرة، عندما أثارت تقنية الذكاء الاصطناعي الخاصة بها جدلًا واسعًا. بعدما استثمرت الشركة مليارات الدولارات فيOpenAI، وأطلقت روبوت محادثة مدعومًا بالذكاء الاصطناعي ضمن محرك Bing، أصبح هذا الروبوت موضوع نقاش إعلامي كبير.

ساءت الأمور بسرعة عندما شارك أحد الصحفيين من نيويورك تايمز تجربة تفاعله مع الروبوت، مما جعله يشعر بالقلق وعدم الارتياح. لاحقًا، انتشرت لقطات شاشة تُظهر استخدام الروبوت لألفاظ عنصرية وتصريحاته الغريبة حول السيطرة على العالم، ما عُدَّ ذلك في إطار التحيُّز غير المرغوب.

في مواجهة هذا الجدل، استجابت مايكروسوفت بسرعة وأعلنت عن إصلاحات فورية للحد من قدرات الروبوت وتقليل ردوده المثيرة للقلق. أطلقت تحديثات جعلت تفاعلات الذكاء الاصطناعي أكثر تحكمًا، وتمكنت من تهدئة العاصفة الإعلامية. ومع ذلك، لم تقف مايكروسوفت عند هذا الحد؛ بل استبدلت روبوت Bing ببرنامج “Copilot”، الذي تم دمجه في منتجاتها الرئيسية مثل Microsoft 365 ونظام التشغيل Windows، مما يعكس التزامها بتطوير أدوات ذكاء اصطناعي أكثر استقرارًا وأمانًا.

تأتي هذه الخطوات في إطار سعي مايكروسوفت لمواجهة التحيز في الذكاء الاصطناعي من خلال تعزيز التنوع والاندماج في فرق العمل المسؤولة عن تطوير هذه التقنيات. تؤمن الشركة بأن وجود فرق متنوعة وشاملة يساعد في تقليل التحيزات وضمان تطوير تقنيات تلبي احتياجات جميع المستخدمين.

خطأ بخسارة فادحة

كان الخطأ فادحًا، وليس مُجرَّد استعارة أو مجاز بلاغي، فقد طالت الأخطاء معلومات عامة في مجال التكنولوجيا، وتحيُّزات أخرى طالت الأجناس والأعراق. ومايكروسوفت ليست الشركة الوحيدة التي تواجه تحديات تتعلق بالذكاء الاصطناعي، حيث يعتقد النقاد أن هذه الأحداث تكشف عن إهمال واسع لمخاطر الذكاء الاصطناعي في صناعة التكنولوجيا. على سبيل المثال، أداة Bard من جوجل قدمت إجابة خاطئة خلال عرض صحفي حول تلسكوب، مما أدى إلى خسارة 100 مليار دولار من قيمة الشركة.
لاحقًا، تعرض نموذج الذكاء الاصطناعي الذي أطلقته جوجل، والمعروف الآن باسم Gemin، لانتقادات بسبب ما اعتبره البعض “تحيزًا ليبراليًا”، حيث بدا أن الأداة تتجنب إنشاء صور لأشخاص بيض بناءً على بعض الأوامر. هذه الحوادث تبرز التحديات المستمرة التي تواجه شركات التكنولوجيا في تطوير أنظمة ذكاء اصطناعي غير متحيزة وموثوقة.

أداة عادلة ولكن بشرط

رغم ذلك، تؤكد مايكروسوفت أن الذكاء الاصطناعي يمكن أن يكون أداة لتعزيز العدالة والإنصاف، شريطة توفير الضمانات اللازمة. وتقترح الشركة زيادة التنوع والشمولية في فرق تطوير الذكاء الاصطناعي كحل لمشكلة التحيز. لذا، لم يصبح الوقت أكثر ملاءمة من الآن للتفكير في بناء ذكاء اصطناعي شامل يخدم الجميع.

كيف يمكن مواجهة تحيُّز الذكاء الاصطناعي؟

ولكن من وجهة نظر الخبراء، فإنَّ فكرة مواجهة التحيز في الذكاء الاصطناعي، تأتي من خلال عدة طرق، لا تخلو من كيفية تطوير الأداة ذاتها والتعامل مع البيانات وتحديد الهدف، كما يلي:

أولاً: تطوير أدوات فحص التحيز

تعمل شركات مثل مايكروسوفت جاهدة لتطوير أدوات متقدمة لفحص نماذج الذكاء الاصطناعي والكشف عن أي تحيزات قد تؤثر في نتائجها .تهدف هذه الأدوات إلى مساعدة المطورين على تحليل نماذجهم وتحديد أي انحيازات كامنة في البيانات أو الخوارزميات المستخدمة .وبذلك، تسهم هذه الجهود في تعزيز الثقة بنتائج الذكاء الاصطناعي وضمان دقتها وعدالتها.

ثانيًا: تنوع البيانات

تعتبر تنوع البيانات عنصرًا أساسيًا في تدريب نماذج الذكاء الاصطناعي، حيث يجب أن تشمل هذه البيانات مجموعة متنوعة من الأشخاص والخلفيات الثقافية. هذا التنوع يساعد في تقليل التحيزات التي قد تنتج عن استخدام بيانات محدودة أو غير شاملة. وبالتالي، تعزز النماذج القدرة على تقديم نتائج أكثر دقة وشمولية.

ثالثًا: الشفافية

تسعى الشركات إلى جعل خوارزميات الذكاء الاصطناعي أكثر شفافية، مما يتيح للمعنيين فهم كيفية اتخاذ القرارات. فالشفافية تعتبر عاملاً رئيسيًا في تعزيز الثقة بين المستخدمين والأنظمة الذكية. ومن خلال توفير توضيحات حول كيفية عمل الخوارزميات، يصبح من الممكن اكتشاف أي مشكلات أو انحيازات محتملة.

رابعًا: التعاون مع خبراء أخلاقيات الذكاء الاصطناعي

يشكل التعاون مع خبراء أخلاقيات الذكاء الاصطناعي خطوة مهمة لضمان توافق الأنظمة مع القيم الأخلاقية والمعايير الاجتماعية. هؤلاء الخبراء يمكنهم تقديم رؤى حول كيفية تصميم وتطوير أنظمة تضمن العدالة وتراعي حقوق الأفراد. هذا التعاون يسهم في بناء بيئة تكنولوجية تحترم التنوع والمساواة.

خامسًا: الهدف

الهدف من جميع هذه الجهود هو جعل الذكاء الاصطناعي أكثر عدلاً وشمولية للجميع. فمن خلال معالجة التحيزات وتعزيز التنوع والشفافية، يمكن بناء أنظمة ذكية تلبي احتياجات المجتمع بشكل أفضل. والسعي نحو هذه الأهداف يسهم في تحسين تأثير الذكاء الاصطناعي ويعزز استخدامه بشكل مسؤول.

ختامًا، بغض النظر عن الأخطاء التي تم ذكرها سابقًا، لا تزال تقنية الذكاء الاصطناعي تواجه كثيرًا من التحديات الأساسية. ولا يزال الاعتماد الكلي عليها موضع تساؤل من الناحية الاقتصادية والإبداعية، فضلاً عن الجوانب الأخرى التي قد تطرأ.

اترك رد

Your email address will not be published.