أربعة أنواع من مخاطر الذكاء الاصطناعي التوليدي وكيفية التخفيف منها
Öykü Isik, Amit Joshi, Lazaros Goutas
وفقًا لاستطلاع أجري على 2500 مدير تنفيذي من قبل شركة Gartner في الربيع الماضي، أفاد حوالي 70% من المشاركين بأن منظماتهم تستكشف كيفية دمج الذكاء الاصطناعي التوليدي في أعمالها. كما تم الإبلاغ عن أن معدلات تبني الذكاء الاصطناعي على مستوى العالم أعلى في كل منطقة شملها الاستطلاع، وفقًا لتقرير مؤشر الذكاء الاصطناعي الذي نشرته جامعة ستانفورد، مؤخرًا.
قامت عمالقة التكنولوجيا مثل Microsoft وSalesforce بالفعل بدمج الذكاء الاصطناعي التوليدي في العديد من منتجاتها، والتزمت أخيرًا بتقديم خيار للمنظمات لإنشاء نسخ مخصصة من نماذجها اللغوية الكبيرة. من شركة النكهات والعطور السويسرية Firmenich إلى فريق التسويق في شركة CocaCola، تشعر الشركات بفضول شديد حول ما إذا كانت هذه الأدوات يمكنها خلق قيمة جديدة لها وكيفية ذلك.
ومع ذلك، لا تزال العديد من المنظمات مترددة في تبني تطبيقات الذكاء الاصطناعي التوليدي، مشيرة إلى مخاوف تتعلق بالخصوصية وتهديدات الأمان، وانتهاك حقوق الطبع والنشر، وإمكانية التحيز والتمييز في مخرجاته، وغيرها من المخاطر. وتتراوح سلبيات تبني الذكاء الاصطناعي التوليدي على نطاق واسع من الأمور المزعجة بشكل طفيف مثل البريد العشوائي المخصص، إلى الكوارث الحقيقية مثل الاستنزاف السريع لمصادر المياه من الأجزاء الضعيفة من الكوكب لدعم أكبر مراكز البيانات التي تم إنشاؤها على الإطلاق. وقامت بعض المنظمات بحظر استخدام موظفيها لهذه التقنية. على سبيل المثال، حظرت شركتا Apple وSamsung الاستخدام الداخلي لـChatGPT، خاصة من قبل فريق تطوير البرمجيات، بعد أن أدركتا أن رمزًا حساسًا قد تم تحميله على المنصة، مما يعرض المعلومات السرية لخطر الفقدان.
في الوقت الحالي، تسعى الحكومات جاهدة لوضع أطر وقوانين معقولة لإدارة هذه التكنولوجيا وسلبياتها، وهو ما يعني أن الشركات غالبًا ما تضطر إلى التعامل مع هذه المسائل بمفردها. ومن الواضح أن جميع أنواع المخاطر التي يسببها الذكاء الاصطناعي التوليدي ليست متساوية، ولذلك نحتاج إلى فهمها وإدارتها بشكل مناسب. في هذه المقالة، نقترح إطار عمل عالي المستوى يوفر للمديرين التنفيذيين طريقة لتصنيف التحديات المحتملة ضمن مشهد الذكاء الاصطناعي التوليدي، ومن ثم التخفيف منها.
مخطط لمخاطر الذكاء الاصطناعي التوليدي
نصنف مخاطر الذكاء الاصطناعي التوليدي بناءً على عاملين: النية والاستخدام. نفصل بين سوء التطبيق العرضي للذكاء الاصطناعي التوليدي والممارسات الخاطئة المتعمدة “النية”. وبالمثل، يتم التفريق بين استخدام أدوات الذكاء الاصطناعي التوليدي لإنشاء المحتوى واستهلاك المحتوى الذي قد يكون تم إنشاؤه بواسطة أطراف أخرى باستخدام الذكاء الاصطناعي التوليدي “الاستخدام”. نعتقد أن كل نوع من أنواع المخاطر الأربعة التي أبرزناها في إطار عملنا سيقدم تحديات مميزة.
سوء الاستخدام
يشير سوء الاستخدام إلى الاستغلال غير الأخلاقي أو غير القانوني لقدرات الذكاء الاصطناعي التوليدي لأغراض ضارة مثل الاحتيال وحملات التضليل. مع تحسن قدرات الذكاء الاصطناعي التوليدي، استخدمها الفاعلون السيئون في أنواع مختلفة من الهجمات الإلكترونية. على سبيل المثال، أدى انخفاض تكلفة إنشاء المحتوى باستخدام الذكاء الاصطناعي التوليدي إلى زيادة في عمليات التزييف العميق “deepfakes”، والتي تُستخدم في الهندسة الاجتماعية، والهجمات الآلية للتضليل، والاحتيال، والاحتيال المالي، وسرقة الهوية، وحتى التلاعب بنتائج الانتخابات.
سوء التطبيق
إحدى المشاكل المعروفة مع الذكاء الاصطناعي التوليدي، هي أنه يعطي الأولوية للاحتمالية على الدقة، ويمكن أن ينتج مخرجات غير دقيقة مثل مشكلة تُعرف بـ”الهلوسة”. تصبح هذه مشكلة عندما يعتمد المستخدمون بشكل غير صحيح عليه أو يسيئون تطبيق أدوات الذكاء الاصطناعي التوليدي. على سبيل المثال، في يونيو 2023، قدم مذيع في جورجيا دعوى قضائية ضد شركة OpenAI بعد أن ذكر ChatGPT بشكل خاطئ أنه تم اتهامه بالاحتيال واختلاس الأموال من منظمة غير ربحية. وقد تزداد حالات سوء التطبيق مع تحول الذكاء الاصطناعي التوليدي إلى متعدد الوسائط وزيادة قدرته على إنشاء محتوى مقنع.
التزييف
تغطي هذه الفئة الحالات التي يتم فيها استخدام ونشر مخرجات الذكاء الاصطناعي التوليدي التي تم إنشاؤها بواسطة طرف ثالث بشكل متعمد، على الرغم من التساؤلات حول مصداقيتها أو صحتها.
يتم بانتظام مشاركة تزييفات عميقة لفشل المنتجات التي أنشأها أشخاص مجهولون على وسائل التواصل الاجتماعي، وقد تحتاج الشركات قريبًا إلى التعامل مع كثير من هذه الحالات. على سبيل المثال، تم نشر مقطع فيديو يظهر حادث شاحنة Tesla Cybertruck بشكل واسع على Reddit في مارس، قبل أن يتأكد أن الفيديو كان تزييفًا عميقًا. تجعل مثل هذه الأمثلة قضيتنا حول التزييف عبر استهلاك أو استخدام محتوى الذكاء الاصطناعي التوليدي المضلل بشكل متعمد.
المغامرة غير المحسوبة
تشمل الفئة الأخيرة المحتوى الذي قد يتم استهلاكه ومشاركته عن طريق الخطأ من قبل المستخدمين الذين لا يدركون عدم مصداقيته. على سبيل المثال، عندما شارك العديد من مستخدمي “X” تزييفًا عميقًا لانفجار في البنتاغون، انخفضت الأسهم في وول ستريت مؤقتًا حيث اعتقد الكثيرون أن الصورة حقيقية. وبالمثل، يتم استخدام التزييف العميق بشكل متزايد لتجاوز البروتوكولات الأمنية. في عام 2019، وقع الرئيس التنفيذي لشركة طاقة بريطانية ضحية للاحتيال الصوتي بالتزييف العميق، حيث اعتقد عن طريق الخطأ أن الرئيس التنفيذي لشركة الأم يطلب منه تحويل مبلغ كبير من المال إلى شركة موردة.
مواجهة المخاطر
كل المخاطر المذكورة آنفًا يقدم تحديات فريدة. ومع ذلك، هناك إجراءات يمكن للقادة في المؤسسات العامة والخاصة اتخاذها للتخفيف من هذه المخاطر. تعتمد توصياتنا بشكل أساسي على ما إذا كان الخطر ناتجًا عن إنشاء محتوى مشكوك فيه بواسطة الذكاء الاصطناعي التوليدي، سواء كان ذلك عن قصد أم لا، أو عن استخدام محتوى مشكوك فيه للذكاء الاصطناعي التوليدي. هذا التمييز هو الذي يجب أن يشكل إجراء التخفيف.
التخفيف من مخاطر إنشاء المحتوى: سوء الاستخدام وسوء التطبيق
للتخفيف من خطر سوء استخدام محتوى الذكاء الاصطناعي التوليدي وسوء تطبيقه، تحتاج المنظمات إلى تطوير قدرات للكشف عن هذا المحتوى وتحديده ومنع انتشاره نظرًا لأنه قد يكون مضللًا. لقد عبر مزودو الذكاء الاصطناعي التوليدي الكبار بالفعل عن التزامهم بتحمل المسؤولية عن مطالبات انتهاك حقوق الملكية الفكرية (IP) التي قد يواجهها عملاؤهم من استخدام الذكاء الاصطناعي التوليدي. ومع ذلك، نظرًا للأضرار المحتملة التي قد تؤثر على سمعة المنظمة، يحتاج المديرون التنفيذيون إلى أن يكونوا استباقيين في التعرف على هذا الخطر ووضع حواجز فعالة داخل المنظمة. الإجراءات التالية هي نقاط بداية جيدة:
1-ضمان التوافق بين القيم التنظيمية ومبادئ الذكاء الاصطناعي
معالجة تحديات الذكاء الاصطناعي التوليدي تتجاوز مجرد الحوكمة، فهي تتعلق أساسًا بقيم الأعمال والأخلاقيات والالتزام بالذكاء الاصطناعي الأخلاقي. ينبغي للمنظمة الملتزمة بتنفيذ الذكاء الاصطناعي أن تبدأ بوضع مبادئ وأدلة إرشادية واضحة لاستخدام الذكاء الاصطناعي التوليدي في المنظمة، تهدف إلى ضمان أن استخدامه لا يسبب أي ضرر شخصي أو اجتماعي. وغالبًا ما تتضمن هذه المبادئ الشفافية، والعدالة، والمساءلة، والسلامة. يجب أن تكون مبادئ الذكاء الاصطناعي التي تختار المنظمة الالتزام بها متماشية مع القيم الأخلاقية للمنظمة. وبعد ذلك، يجب توضيح قيم المنظمة بشكل صريح وجعلها متاحة بسهولة لجميع الموظفين.
يجب على أي منظمة تقوم بإنشاء أو استخدام الذكاء الاصطناعي التوليدي أن تضمن وجود توافق سلس بين هذه القيم الأساسية ومبادئ الذكاء الاصطناعي. هذا التوافق لا يعمل فقط كحاجز أمان للمنظمة، بل يُعتبر أيضًا استراتيجية مستقبلية لضمان الاستخدام المسؤول والمستدام والمفيد للذكاء الاصطناعي التوليدي.
2-إلزام جميع الجهات التي تنشئ محتوى الذكاء الاصطناعي التوليدي بوضع علامة مائية على مخرجاتها
تم اقتراح وضع علامات مائية على مخرجات الذكاء الاصطناعي كآلية لضمان الشفافية والإشارة إلى مصدر المخرجات، ومالكها، ومصداقيتها “النسبية”. إذا تم إنشاء محتوى معين بواسطة نظام ذكاء اصطناعي، يجب أن تكون هذه الحقيقة متاحة للجمهور ومُعلنة بوضوح. فوضع العلامات المائية على المخرجات يضمن أن المستخدمين يمكنهم التمييز بين المخرجات التي أنشأها الذكاء الاصطناعي وتلك التي أنشأها البشر. وقد التزمت بالفعل عمالقة الذكاء الاصطناعي، مثل OpenAI وAlphabet وMeta، بوضع علامات مائية على مخرجاتها التي أنشأها الذكاء الاصطناعي لمعالجة مخاوف الحكومة الأميركية بشأن التهديدات التي يشكلها الذكاء الاصطناعي التوليدي. فإضفاء الطابع المؤسسي على مثل هذا البروتوكول لا يضمن فقط إمكانية التتبع ويعزز الثقة، بل يمكّن المستخدمين أيضًا من اتخاذ قرارات بثقة بشأن مصداقية المحتوى الذي يواجهونه.
3-إنشاء بيئة ذكاء اصطناعي توليدي مُحكمة داخل المنظمة
تسعى العديد من المنظمات التي نعمل معها، عبر قطاعات السلع الاستهلاكية المعبأة “CPG” والسيارات والصناعة والمالية والإعلام، إلى إنشاء أدوات ذكاء اصطناعي توليدي خاصة بها ومُعَدَّلة بدقة. على سبيل المثال، في IMD، نقوم أيضًا بضبط نموذج لغوي كبير ليتناسب مع احتياجاتنا، وأضفنا طبقة إضافية من أدوات إدارة الخصوصية إلى بنيتنا لضمان عدم تسرب أي معلومات شخصية يمكن التعرف عليها إلى نموذجنا. على الرغم من أن هذه النماذج اللغوية الكبيرة ليست محصنة ضد الهلوسة أو سوء الاستخدام، فإنها توفر درجة من الحماية والتحكم في المحتوى الذي يتم إنشاؤه واستهلاكه.
بالإضافة إلى ميزة تكييف قدرات النموذج اللغوي الكبير مع احتياجات المنظمة، يتيح النموذج اللغوي المُعَدَّل للمنظمة أيضًا قدرًا كبيرًا من التحكم في الهندسة المعمارية ويتجنب الوقوع في فخ الاعتماد على مزودين محددين. من منظور تقليل المخاطر، يمكن للمنظمات تنظيم مجموعات البيانات التدريبية وضمان أنها خالية من التحيزات، وأن لديها تدابير خصوصية لحماية المعلومات التي قد تكون سرية أو حساسة. يبدو أن الأدلة التي تدعم الحجة بأن ضبط النماذج بدقة يُنتج نتائج أفضل تتراكم.
التخفيف من مخاطر استهلاك المحتوى: سوء الفهم والتزييف
حتى إذا لم يتم إنتاج محتوى الذكاء الاصطناعي التوليدي المشكوك فيه داخليًا، فإن استخدامه، سواء كان ذلك عن قصد أو لا، يمكن أن يتسبب في أضرار على السمعة وغيرها من العواقب السلبية للمنظمات. توصياتنا للتخفيف من هذه القضايا مستوحاة من أفضل الممارسات المُعْتَرَف بها بالفعل لمنع استهلاك المواد الخطرة، مثل المواد الكيميائية والأدوية وغيرها من المنتجات المماثلة. على سبيل المثال، تفرض منظمات مثل OSHA “إدارة السلامة والصحة المهنية” وEPA “وكالة حماية البيئة”، التدريب واستخدام معدات الحماية الشخصية “PPE” للتعامل مع أي مواد خطرة، بالإضافة إلى نظام طوارئ واضح في حالة حدوث تسريبات. وبالمثل، نقترح الخطوات التالية:
1-توفير فرص تدريبية للتوعية وإزالة الغموض حول الذكاء الاصطناعي التوليدي في جميع أنحاء المنظمة
إنشاء حواجز داخلية حول استخدام الذكاء الاصطناعي التوليدي، بالإضافة إلى سياسات تحدد متى يمكن استخدام الذكاء الاصطناعي التوليدي ومتى لا يمكن استخدامه؛ يمكن أن يساعد في التخفيف من المخاوف المتعلقة بتحيزات الذكاء الاصطناعي التوليدي، ونقص الشفافية، وصحة المخرجات، والمخاطر التنظيمية. يجب أن تكون هذه الحواجز مصحوبة ببرامج تدريبية يمكنها زيادة الوعي حول استهلاك محتوى الذكاء الاصطناعي التوليدي بشكل آمن ومسؤول.
أطلقت شركة PWC، مؤخرًا، برنامج تدريب إلزاميًا حول استخدام الذكاء الاصطناعي التوليدي لموظفيها في الولايات المتحدة. وتتبنى شركات أخرى نهجًا أكثر استهدافًا: تقوم Publicis Sapient بتنوع محتوى تدريب الذكاء الاصطناعي وفقًا لأدوار الوظائف المختلفة، لكنها تطلب أيضًا من جميع موظفيها أن يتدربوا على هندسة الاستفسارات. بجانب هذه التدريبات، يمكن لفريق الأعمال المطلع التعاون بشكل أكثر فعالية مع فرق علوم البيانات وتحديد مهام الذكاء الاصطناعي التي تخلق قيمة بشكل أفضل. هذا يضمن أن المحتوى الذي ينتجه الذكاء الاصطناعي يتماشى مع أهداف المنظمة ومعايير الجودة.
2-التحقق من مخرجات الذكاء الاصطناعي من خلال آليات التمييز والتحذير
حاليًا، لا توجد أنظمة آلية يمكنها تحديد بشكل موثوق ما إذا كان أي مخرج تم إنشاؤه بواسطة الذكاء الاصطناعي أم لا. بالإضافة إلى العلامات المائية المذكورة، تحتاج المنظمات إلى إنشاء آليات أخرى للتحقق من المحتوى وتأكيده. يجب أن تكون هذه الآليات قوية بما يكفي لاكتشاف الهلوسات “الاستخدامات الخاطئة للذكاء الاصطناعي التوليدي”، وكذلك التطبيقات الخاطئة المتعمدة لمحتوى الذكاء الاصطناعي التوليدي. على سبيل المثال، تمتلك Canva، وهي منصة لإنشاء المحتوى الرقمي، سلسلة من الأدوات الآلية لمراجعة وتنظيم المحتوى الذي يُعتبر غير مناسب.
يمكن لأنظمة كهذه من جهة أن تحمي المنظمات من مخاطر استهلاك المحتوى عبر الإنترنت المذكورة سابقًا، ومن جهة أخرى، يمكنها تحسين عملية اتخاذ القرار من خلال ضمان الشفافية والمساءلة وجودة البيانات العالية. يجب أن يتم هذا التحقق المتقاطع ليس فقط من قبل المنظمات التي تنشئ النماذج الأساسية للذكاء الاصطناعي التوليدي، مثل OpenAI وGoogle وغيرهما، بل أيضًا من قبل جميع الشركات التي تستخدم هذه النماذج.
الحواجز الداخلية التي يمكن تنفيذها عبر هندسة الاستفسارات، غالبًا ما تكون غير كافية للتخفيف من هذه المخاطر. ضبط النماذج بدقة واستخدام الجيل المعزز بالاسترجاع لمكافحة الهلوسات قد لا يكون خيارًا قابلاً للتطبيق؛ نظرًا لأن العديد من المنظمات تستخدم حاليًا النسخ البسيطة من أنظمة الذكاء الاصطناعي التوليدي. وأهم من ذلك، أن الآليات المذكورة آنفًا لا يمكنها الحماية من التطبيقات الخاطئة. في هذا السياق، يمكن للمنظمات اعتماد وتنفيذ أنظمة تحقق وتأكد من الادعاءات الأساسية للمحتوى المُنتَج، وأصوله، والمصادر المستخدمة. يمكن أن تُستَكْمَل هذه الأنظمة بآلية تحكم “العيون الأربع”، حيث ينظر شخصان على الأقل إلى أنواع معينة من المحتوى والنشاط، التي تقوم بمراجعة وتدقيق المحتوى بشكل دوري.
3-إعداد خطط لتخفيف الأضرار في الحالات التي لا يمكن احتواؤها
من الأفضل معالجة مخاطر الذكاء الاصطناعي التوليدي بشكل استباقي، على سبيل المثال، من خلال إنشاء إطار لإدارة المخاطر واعتماد بعض الممارسات المذكورة سابقًا. هناك ممارسات تتطور بسرعة في هذا المجال، مثل المعيار الجديد ISO 23894 لإدارة مخاطر الذكاء الاصطناعي، الذي يقدم إرشادات استراتيجية للمنظمات لإدارة المخاطر المتعلقة بتطوير واستخدام الذكاء الاصطناعي.
ومع ذلك، على الرغم من أفضل الجهود، فمن غير المحتمل احتواء جميع التهديدات، فبعضها سيصل بالفعل إلى المنتديات العامة وقد ينتشر بسرعة. في مثل هذه الحالات، يحتاج المنظمون وكذلك الفرق الفنية في الشركات إلى وجود خطة لاحتواء الأضرار. يمكننا أن نتعلم من ممارسات الاستجابة لحوادث الأمن السيبراني فيما يتعلق بما يجب تضمينه في هذه الخطط. على سبيل المثال، طورت Adobe برنامج استجابة للحوادث يتضمن أيضًا ترتيبات حول أمان نماذج الذكاء الاصطناعي الخاصة بها.
في مثل هذه الحالات، من المهم وجود فريق مهام داخلي يمكنه بسرعة فهم وتحديد أولويات المخاطر والسيطرة عليها والتواصل مع جميع الأطراف المعنية. يجب أن تتضمن استراتيجية الاتصال الفعالة الإفصاح عن ممارسات الحوكمة وإدارة المخاطر الخاصة بالذكاء الاصطناعي التوليدي في المنظمة، بالإضافة إلى استراتيجية احتواء المخاطر.
الذكاء الاصطناعي التوليدي يعِد بإحداث تغيير جذري سيؤثر بشكل كبير على البشرية. وكما هو الحال مع جميع التقنيات الكبرى، فإنه يأتي مع مخاطره الذاتية. وإدراكًا لهذه المخاطر، تعمل أكثر من 70 جهة قضائية حول العالم اليوم على إنشاء تشريعات للذكاء الاصطناعي. ومع ذلك، فإن تطوير التكنولوجيا يتم بشكل أسرع بكثير من العمليات التشريعية، مما يخلق فجوات تُعرّض الشركات والمؤسسات لانتقاداتٍ ومخاطر على سمعتها. لهذا السبب بالضبط يجب على التنفيذيين اليوم البدء في اتخاذ مبادرات في تطوير الذكاء الاصطناعي المسؤول. فكلما فهمنا هذه المخاطر وتعلمنا إدارتها بشكل أسرع، تمكنا من تطبيق هذه التكنولوجيا بشكل مفيد في كل من المجالات العامة والخاصة.
المصدر: Harvard Business Review