الذكاء الاصطناعي والأمن: الأمر معقد لكنه يجب ألا يكون كذلك
Clyde Williamson
الذكاء الاصطناعي يزداد شعبية، ومن المتوقع أن يستمر هذا الاتجاه. وتدعم ذلك شركة Gartner، التي تشير إلى أن حوالي 80% من المؤسسات ستستخدم واجهات برمجة التطبيقات “APIs” أو نماذج الذكاء الاصطناعي التوليدي “GenAI” بحلول عام 2026. ومع ذلك، فإن الذكاء الاصطناعي هو مصطلح واسع وشامل، وفي كثير من الحالات، يغطي مجموعة من التقنيات. وكذلك يقدم إنجازات في القدرة على معالجة المنطق بطرق مختلفة، مما يجذب انتباه الشركات والمستهلكين على حد سواء الذين يجربون أشكالًا متنوعة من الذكاء الاصطناعي اليوم. في الوقت نفسه، تجذب هذه التكنولوجيا انتباهًا مماثلًا من الجهات المهددة التي تدرك أنها قد تكون نقطة ضعف في أمان الشركات، بينما يمكن أن تكون أيضًا أداة تساعد الشركات على تحديد هذه النقاط الضعف ومعالجتها.
تحديات أمان الذكاء الاصطناعي
إحدى الطرق التي تستخدم بها الشركات الذكاء الاصطناعي، هي مراجعة مجموعات البيانات الكبيرة لتحديد الأنماط وترتيب البيانات وفقًا لذلك. يتم ذلك من خلال إنشاء مجموعات بيانات جدولة تحتوي عادةً على صفوف من البيانات. في حين أن لهذا فوائد كبيرة للشركات، بدءًا من تحسين الكفاءة إلى تحديد الأنماط والرؤى، فإنه يزيد أيضًا من مخاطر الأمان؛ إذ إنه في حال حدوث خرق، تكون هذه البيانات مرتبة بطريقة تسهل على الجهات المهددة استخدامها.
تتطور التهديدات بشكل أكبر عند استخدام تقنيات نماذج اللغة الكبيرة “LLM”، حيث تزيل الحواجز الأمنية، ويتم وضع البيانات في المجال العام ليتمكن أي شخص يستخدم هذه التقنية من الوصول إليها واستخدامها. ونظرًا لأن LLM هو في الأساس برنامج لا يفهم التفاصيل، فإنه ينتج الاستجابة الأكثر احتمالًا بناءً على الاحتمالات باستخدام المعلومات المتاحة لديه. لهذا السبب، تمنع العديد من الشركات الموظفين من إدخال أي بيانات تخص الشركة في أدوات مثل ChatGPT للحفاظ على أمان البيانات داخل حدود الشركة.
فوائد أمان الذكاء الاصطناعي
بينما قد يشكل الذكاء الاصطناعي مخاطر محتملة على الشركات، يمكن أن يكون أيضًا جزءًا من الحل. حيث يعالج الذكاء الاصطناعي المعلومات بشكل مختلف عن البشر، مما يسمح له بالنظر إلى المشكلات بطرق مختلفة والتوصل إلى حلول مبتكرة. على سبيل المثال، ينتج الذكاء الاصطناعي خوارزميات أفضل ويمكنه حل مشكلات رياضية عانت منها البشرية لسنوات عديدة. وبالتالي، عندما يتعلق الأمر بأمان المعلومات، فإن الخوارزميات هي الأساس، ويمكن أن يأتي الذكاء الاصطناعي أو تعلم الآلة “ML” أو تقنيات الحوسبة الإدراكية المماثلة بحلول لتأمين البيانات.
هذه ميزة حقيقية للذكاء الاصطناعي، حيث يمكنه تحديد وفرز كميات هائلة من المعلومات، وأيضًا التعرف على الأنماط مما يسمح للمنظمات برؤية أشياء لم تلاحظها من قبل. هذا يجلب عنصرًا جديدًا تمامًا إلى أمان المعلومات. بينما سيستخدم المهاجمون الذكاء الاصطناعي كأداة لتحسين فعالية اختراق أنظمة. وسيتم استخدامه أيضًا كأداة من قبل القراصنة الأخلاقيين لمحاولة معرفة كيفية تحسين الأمان، مما سيكون مفيدًا للغاية للأعمال.
تحدي الموظفين والأمان
يستخدم الموظفون، الذين يرون فوائد الذكاء الاصطناعي في حياتهم الشخصية، أدوات مثل ChatGPT لتحسين قدرتهم على أداء وظائفهم. وفي الوقت نفسه، يسهم هؤلاء الموظفون في تعقيد أمان البيانات. ويجب على الشركات أن تكون واعية بالمعلومات التي يقوم الموظفون بإدخالها على هذه المنصات والتهديدات المرتبطة بها.
بينما ستجلب هذه الحلول فوائد لمكان العمل، قد تفكر الشركات في إدخال بيانات غير حساسة إلى الأنظمة لتقليل تعرض مجموعات البيانات الداخلية مع تعزيز الكفاءة عبر المنظمة. ومع ذلك، يجب على المنظمات أن تدرك أنه لا يمكنها الحصول على الأمرين معًا، وأن البيانات التي تدخلها في هذه الأنظمة لن تبقى خاصة. لهذا السبب، ستحتاج الشركات إلى مراجعة سياساتها الأمنية للمعلومات، وتحديد كيفية حماية البيانات الحساسة مع ضمان وصول الموظفين إلى البيانات الحيوية.
بيانات غير حساسة ولكنها مفيدة
بينما تدرك الشركات قيمة الذكاء الاصطناعي، تضيف في الوقت نفسه مخاطر أمنية إلى المعادلة. وللحصول على فائدة من هذه التقنية مع الحفاظ على خصوصية البيانات، تستكشف الشركات طرقًا لتنفيذ بيانات مجهولة الهوية باستخدام تقنية التسمية المستعارة، على سبيل المثال، التي تستبدل المعلومات القابلة للتعريف باسم مستعار أو قيمة، مما يمنع التعرف المباشر على الفرد.
طريقة أخرى يمكن أن تحمي بها الشركات البيانات، هي استخدام الذكاء الاصطناعي التوليدي لخلق بيانات صناعية. على سبيل المثال، إذا كان لدى شركة مجموعة بيانات للعملاء وتحتاج إلى مشاركتها مع طرف ثالث للتحليل والرؤى، يمكنها توجيه نموذج توليد البيانات الصناعية نحو مجموعة البيانات. سيتعلم هذا النموذج كل شيء عن مجموعة البيانات، ويحدد الأنماط من المعلومات، ثم ينتج مجموعة بيانات تحتوي على أفراد خياليين لا يمثلون أي شخص في البيانات الحقيقية، مما يسمح للمستلم بتحليل مجموعة البيانات بالكامل وتقديم معلومات دقيقة. يعني هذا أن الشركات يمكنها مشاركة معلومات وهمية، ولكن دقيقة دون تعريض بيانات حساسة أو خاصة للخطر.
تتيح هذه الطريقة استخدام كميات هائلة من المعلومات من قبل نماذج تعلم الآلة للتحليلات، وفي بعض الحالات، لاختبار البيانات للتطوير.
مع توافر عدة طرق لحماية البيانات للشركات اليوم، يمكن الاستفادة من قيمة تقنيات الذكاء الاصطناعي، مع الشعور بالاطمئنان أن البيانات الشخصية تبقى آمنة ومحمية. هذا أمر مهم للشركات، حيث يمكنها تجربة الفوائد الحقيقية التي تقدمها البيانات في تحسين الكفاءة، واتخاذ القرارات، وتجربة العملاء بشكل عام.
المصدر: TechNative