3 اتجاهات تحدد سوق الذكاء الاصطناعي التوليدي

8

Vijay Guntur

لا أشك في أن العالم قد دخل عصر الذكاء الاصطناعي، مع ظهور الذكاء الاصطناعي التوليدي “GenAI”، الذي يُحدث تأثيرات ملحوظة في كل صناعة تقريبًا. وتهيمن كيفية تحقيق أقصى استفادة من الذكاء الاصطناعي التوليدي بطريقة آمنة وقابلة للتطوير على كل محادثة تقريبًا أجريها مع عملائنا من المؤسسات.

وفقًا لاستطلاع Gartner لعام 2024 لمديري التنفيذ، فقد أصبح الذكاء الاصطناعي الآن التقنية المميزة لتطبيق الاستراتيجيات المؤسسية، بما في ذلك توليد الإيرادات والعمليات، حيث يُعطي 24% الأولوية لهذه التقنية مقارنة بـ4% فقط في عام 2023.

صعود الذكاء الاصطناعي التوليدي

منذ ظهور GenAI على الساحة في نهاية عام 2022، مع  إصدار OpenAI لبرنامجChatGPT ، سارع القادة التنفيذيون – الذين لم يسمع الكثير منهم عن هذه التكنولوجيا من قبل – إلى تبني التكنولوجيا وزيادة الإنفاق في هذا المجال.

وفقًا لأبحاث Gartner حول GenAI في خدمات التكنولوجيا، من المتوقع أن يزيد معدل النمو السنوي المركب “CAGR” للذكاء الاصطناعي بنسبة 17% بين 2023-2027، وسيؤدي الكثير من هذا النمو إلى تحويل الإنفاق من فئات تكنولوجيا المعلومات الأخرى.

تسعى المؤسسات إلى استبدال استراتيجيات وخطط تكنولوجيا المعلومات الحالية باستراتيجيات “الذكاء الاصطناعي أولاً”، بينما تخطط لنشر التكنولوجيا بنفس طريقة الابتكارات السابقة، مع مزيج من شراء وبناء نماذج وخدمات وحلول GenAI.

مع ظهور أي تقنية جديدة تُحدث تأثيرًا كبيرًا، من المهم فهم الاتجاهات التي تشكل السوق. في هذه المقالة، سأقوم بتفصيل ثلاثة اتجاهات رئيسية تدفع GenAI إلى مقدمة خلق ميزة تنافسية للأعمال.

-1الذكاء الاصطناعي التوليدي المحدد للصناعات والمجالات

تمامًا كما رأينا مع صعود السحابة الصناعية، سيتم بشكل متزايد بناء نماذج GenAI لتناسب صناعات ووظائف أعمال محددة.

وفقًا لشركةGartner ، سينطبق هذا على أكثر من 50% من نماذج GenAI بحلول عام 2027 – ارتفاعًا من حوالي 1% في عام 2023. ويعود هذا الاتجاه إلى الحاجة إلى تطبيقات ذكاء اصطناعي أكثر دقة ووعيًا بالسياق في مختلف الصناعات.

تحتاج الصناعات المختلفة إلى متطلبات مميزة، ومثلما هو الحال مع السحابة، لا يمكن للنماذج والخدمات العامة أو الموحدة لـGenAI دعم الاحتياجات المتخصصة لصناعات معينة. هذا صحيح بشكل خاص للصناعات المنظمة التي لديها معايير صارمة للحوكمة والمخاطر والامتثال. ستساعد نماذج GenAI المحددة للصناعات أو المجالات المؤسسات على الامتثال للوائح والمعايير، مما يضمن الالتزام بأمان البيانات والاعتبارات الأخلاقية.

يتعلم الذكاء الاصطناعي التوليدي المصمم لصناعات أو مجالات معينة من مجموعات بيانات أصغر أو نماذج لغوية صغيرة “SLMs” تتطلب غالبًا طاقة حسابية أقل من تدريب النماذج العامة، مثل: ChatGPT من OpenAI أو Gemini من Google. تتيح هذه الطريقة للنماذج فهم اللغة أو الفروق الدقيقة الخاصة بالصناعة أو المجال بشكل أفضل، مما يؤدي إلى تحسين النتائج.

على سبيل المثال، في مجال الرعاية الصحية، طورت Google Research نموذجًا لغويًا كبيرًا “LLM” يسمَّى Med-PaLM. تم تصميم هذا النموذج لتقديم إجابات عالية الجودة على الأسئلة الطبية. والنسخة الثانية، Med-PaLM 2، هي إحدى نماذج البحث التي تدعم MedLM، وهي مجموعة من النماذج الأساسية التي أُنشئت لصناعة الرعاية الصحية. وحقق Med-PaLM 2 دقة تبلغ 85.4% في أسئلة على طراز امتحان الترخيص الطبي الأميركي “USMLE”، متجاوزًا GPT-4.2. وهو أول نموذج لغوي يحقق أداءً على مستوى الخبراء في أسئلة على طراز USMLE بدقة تزيد على 85%.

في قطاع التجزئة، تعمل شركة RetailGPT  على خلق عصر جديد من التسوق وتناول الطعام المادي والرقمي من خلال قوة .GenAI فمن خلال هذا التطبيق، توفر شركة RetailGPT تجربة شخصية وتفاعلية بشكل لا يصدق للعملاء، في حين تمكن تجار التجزئة من فهم عملائهم وإشراكهم بشكل أفضل من خلال البيانات.

تمتد هذه الاستخدامات الناشئة إلى كل الصناعات تقريبًا، ويمكن أن يؤدي النشر الاستراتيجي لـGenAI إلى تعزيز العروض الحالية وفتح الطريق أمام منتجات وخدمات جديدة، فضلاً عن تدفقات الإيرادات والابتكارات المستقبلية.

-2استراتيجية بيانات موحدة

لتدريب أي نموذج ذكاء اصطناعي، تُعتبر البيانات ضرورية وهي عنصر أساسي.

تُعتبر البيانات عالية الجودة وكميات كبيرة منها أساسية في إنتاج نتائج مؤثرة يمكن استخدامها لإنشاء منتجات وخدمات ذات معنى. ونتيجة لذلك، تُعطي المؤسسات اليوم الأولوية لاكتساب وإدارة البيانات.

ومع ذلك، فإن هذه المهمة تمثل تحديًا كبيرًا لعدة أسباب، بما في ذلك البيانات المعزولة، وفرق الذكاء الاصطناعي والبنية التحتية، وجودة البيانات غير المتسقة، والقوانين المتزايدة الصرامة لحماية البيانات التي تضيف مستويات جديدة من التعقيد، ونقص مجموعات البيانات الكبيرة والمتنوعة لتدريب النماذج، ووجود التحيز في مجموعات البيانات، الذي يُدمج في نماذج الذكاء الاصطناعي. ويؤدي ذلك كله إلى نتائج متحيزة وقرارات قد تكون غير عادلة.

وتعني هذه الأنواع من التحديات أن المؤسسات قد تتكبد تكاليف أعلى وقيودًا محتملة عند تدريب نماذج الذكاء الاصطناعي.

للتغلب على هذه المشكلات، يجب على المؤسسات التركيز على إنشاء استراتيجية بيانات موحدة مرتبطة بالذكاء الاصطناعي والبنية التحتية. وأهم من ذلك، النتائج التجارية. وينبغي أن تتضمن هذه الاستراتيجية نهجًا هجينًا لاكتساب البيانات وإدارتها، يجمع بين البيانات الاصطناعية والبيانات من العالم الحقيقي، مع ممارسة التقييم المستمر تحت إشراف بشري لمعالجة تحديات جودة البيانات، والتنوع والتنظيم الصارم والتحيز.

-3الذكاء الاصطناعي المسؤول والآمن

مع التسارع في اعتماد GenAI، أصبح الذكاء الاصطناعي المسؤول والآمن أمرًا بالغ الأهمية.

الذكاء الاصطناعي المسؤول هو ممارسة ضمان إنشاء أنظمة الذكاء الاصطناعي ونشرها بطريقة أخلاقية.

السبب الرئيسي في إعطاء الأولوية للذكاء الاصطناعي المسؤول هو تقليل التحيز. ويُعتبر تقليل التحيز أساسيًا في تقديم حلول GenAI التي تمتلك قابلية تطبيق حقيقية في السوق وملاءمة.

في النهاية، يأتي التحيز من ثلاثة مجالات: الخوارزميات، والبيانات، والبشر. لقد انخفض التحيز الناتج عن خوارزميات الذكاء الاصطناعي بشكل كبير في العقد الماضي. واليوم، أصبحت الخوارزميات موثوقة إلى حد كبير، وأكبر مصدر للتوجهات المتحيزة في الذكاء الاصطناعي يأتي من البيانات والبشر.

عندما يتعلق الأمر بالبيانات، يظهر التحيز بسبب نقص الجودة والتنوع، إذ غالبًا ما تكون مجموعات البيانات المستخدمة غير مكتملة لتدريب الخوارزمية. أما بالنسبة للبشر، فهناك نقص جوهري في الثقة تجاه الذكاء الاصطناعي، سواء بسبب التهديدات المبلغ عنها لسبل عيش الناس أو بسبب تلاعب الذكاء الاصطناعي بمعلومات معينة.

بينما يركز الذكاء الاصطناعي المسؤول على تطوير بيئة ذكاء اصطناعي أخلاقية وغير متحيزة، فإن الذكاء الاصطناعي الآمن يشير إلى التدابير التي تحمي بنية الذكاء الاصطناعي والبيانات التي تدعم هذه الأنظمة من الهجمات السيبرانية.

إن معالجة المزيد من البيانات لتدريب الخوارزميات يخلق مساحة أكبر للهجمات ويزيد من احتمال حدوث خروقات وتسريبات للبيانات. كما أن الجهات السيئة تستخدم GenAI لإنشاء هجمات سيبرانية أكثر تعقيدًا وصعوبة في الدفاع عنها.

لتجاوز هذه العقبات المختلفة وتنفيذ الذكاء الاصطناعي المسؤول والآمن، يتعين على المؤسسات تطوير إطار عمل يركز على مجالات مثل القابلية للتفسير، والعدالة، والشفافية، والخصوصية، والأمان.

لقد أنشأت العديد من مزودي خدمات تكنولوجيا المعلومات أطر عمل لمساعدة المؤسسات على تبني ممارسات الذكاء الاصطناعي المسؤول والآمن. ولا تختلف HCLTech في ذلك. وتهدف منصتنا AI Force إلى مساعدة المؤسسات في اعتماد الذكاء الاصطناعي المسؤول من خلال دمج تدابير أمان وحوكمة قوية لتعزيز الابتكار الآمن على نطاق واسع.

تحديد سوق الذكاء الاصطناعي التوليدي

بينما لا يزال سوق GenAI في مراحله الأولى، فإن الآثار المترتبة على مستقبل الأعمال والمجتمع كبيرة.

يُعتبر GenAI والذكاء الاصطناعي الآن من الأولويات الاستراتيجية للمؤسسات، حيث وجدت دراسة Gartner لعام 2024، أن 59% من الرؤساء التنفيذيين يوافقون على أن الذكاء الاصطناعي هو التكنولوجيا التي سيكون لها أكبر تأثير على صناعتهم.

ولكن هل ستسلك هذه التكنولوجيا سلوك التكنولوجيات الناشئة الأخرى؛ حيث تلي هذه التكنولوجيا حالة من الضجيج المبالغ فيه ثم تتراجع إلى أدنى مستوياتها؟ هذا ما يتعين علينا أن ننتظره لنرى.

ما هو واضح هو أنه للبقاء والازدهار، ستحتاج المؤسسات إلى تحديد حالات استخدام تجارية ملموسة، وتطوير مهارات الموظفين، والتركيز على مجالات مثل هندسة الاستجابة، وتغيير الهياكل التنظيمية لاستيعاب عالم جديد، حيث يعزز GenAI العمل البشري والابتكار واتخاذ القرار.

للقيام بذلك، ستحتاج المؤسسات المتطلعة إلى المستقبل إلى شريك في GenAI يفهم متطلباتها التجارية الفريدة، ولديه سجل حافل في تقديم حلول ذكاء اصطناعي آمنة وقابلة للتوسع وعالية الأداء، بالإضافة إلى مجموعة شاملة من الخدمات المدعومة بـGenAI.

 

المصدر: TechNative

اترك رد

Your email address will not be published.