هل الذكاء الاصطناعي التوليدي مفيد أم ضار لمطوري البرمجيات؟

7

John Walsh

في الماضي، كانت عملية تطوير البرمجيات مكررة للغاية وشاقة وبدائية، وكانت تتطلب الكثير من الشفرات المخصصة، حتى للبرامج البسيطة جدًا. كان المطورون يستخدمون لغات منخفضة المستوى مثل التجميع أو الثنائي لإدخال التعليمات الخاصة بالعتاد يدويًا وإدارة الذاكرة.

لحسن الحظ، تتطور عملية تطوير البرمجيات مع مرور الوقت، حيث يمكّن التقدم التكنولوجي فرق التطوير من بناء تطبيقات عالية الجودة بسرعة أكبر. ففي عام 2008، كان إنشاء Stack Overflow، موقع الأسئلة والأجوبة للمبرمجين، خطوة كبيرة بالفعل. والانضمام إلى مثل هذه المجتمعات البرمجية التعاونية أو القدرة على الوصول إلى مكتبات الشفرات جعلت البرمجة أكثر كفاءة. وكان بإمكان المطورين طلب الإرشاد والدعم من زملائهم، وحتى نسخ ولصق مقتطفات الشفرات لبناء تطبيقاتهم.

تعتبر أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وغيرها من الأدوات المدعومة بالذكاء الاصطناعي أحدث التطورات الثورية في البرمجة. وتتجاوز هذه الأدوات ما يمكن أن يفعله المطورون البشر من خلال توليد كميات هائلة من مقتطفات الشفرات بعدة لغات برمجة. لكن هذه الأدوات القوية غالبًا ما تأتي مع مخاطر أمان يجب ألا تُغفل.

تمامًا مثل البشر، فإن أدوات الذكاء الاصطناعي ليست مثالية وقد توصي بمقاطع من التعليمات البرمجية تحتوي على ثغرات أمنية. وإذا قام المطورون البشر بنسخ ولصق هذه التعليمات ببساطة، فقد يتسببون في إدخال ثغرات إلى برنامجهم، مما قد تكون له عواقب كبيرة على الأمان. لذا، على الرغم من أن البرمجة تُؤتمت بشكل متزايد باستخدام أدوات مساعدة بالذكاء الاصطناعي، فإن هناك حاجة لتدخل بشري للتحقق من كل شفرة تُنتجها الآلات. ويجب على المطورين ألا ينسوا أن ممارسات الأمان ضرورية. واستخدام أدوات مثل ChatGPT في تطوير البرمجيات لا يعني أن المبرمجين البشريين لم يعودوا مسؤولين عن الشفرة، بل يعني ببساطة أن هناك مهارات جديدة مطلوبة لتحسين أمان الهوية وضمان أن الشفرات المولدة بواسطة الذكاء الاصطناعي لا تعرض الأعمال للخطر.

البرمجة بشكل أسرع باستخدام أدوات الذكاء الاصطناعي

أحد الجوانب التي أجدها ممتعة في تطوير البرمجيات هو تطورها المستمر. ولكوني مطورًا، أسعى دائمًا لإيجاد طرق لتعزيز الكفاءة وتجنب تكرار الشفرات، وفقًا لمبدأ “لا تكرر نفسك”. وعلى مر التاريخ، سعى البشر إلى وسائل لأتمتة المهام المتكررة. ومن وجهة نظر المطور، فإن التخلص من البرمجة المتكررة يسمح لنا ببناء تطبيقات أفضل وأكثر تعقيدًا.

روبوتات الذكاء الاصطناعي ليست التقنية الأولى التي تساعدنا في هذا المسعى، بل هي تمثل المرحلة التالية في تقدم تطوير التطبيقات، مستندة إلى الإنجازات السابقة.

هل يمكن لمطوري البرمجيات الوثوق بشكل أعمى بـChatGPT؟

قبل ظهور أدوات الذكاء الاصطناعي، كان المطورون يبحثون على منصات مثل Google وStack Overflow عن حلول برمجية، ويقارنون بين إجابات متعددة للعثور على الأنسب. مع ChatGPT، يحدد المطورون لغة البرمجة والوظائف المطلوبة، ليحصلوا على ما تعتبره الأداة أفضل إجابة. هذا يوفر الوقت من خلال تقليل كمية الشيفرات التي يحتاج المطورون إلى كتابتها. ومن خلال أتمتة المهام المتكررة، يمكّن ChatGPT المطورين من التركيز على المفاهيم الأكثر تعقيدًا، مما يؤدي إلى تطبيقات متقدمة ودورات تطوير أسرع.

ومع ذلك، هناك تحذيرات لاستخدام أدوات الذكاء الاصطناعي. فهي تقدم إجابة واحدة دون التحقق من مصادر أخرى، على عكس ما يمكن رؤيته في مجتمع تطوير البرمجيات التعاوني. لذا، يحتاج المطورون إلى التحقق من أي حل يقدمه الذكاء الاصطناعي. بالإضافة إلى ذلك، نظرًا لأن الأداة لا تزال في مرحلة البيتا، يجب تقييم الشيفرة المقدمة من ChatGPT والتحقق منها قبل استخدامها في أي تطبيق.

هناك العديد من الأمثلة على الاختراقات التي بدأت بسبب قيام شخص بنسخ الشيفرة وعدم التحقق منها بدقة. فكر في ثغرة Heartbleed، وهي خطأ أمني في مكتبة شائعة أدت إلى تعريض مئات الآلاف من المواقع والخوادم والأجهزة الأخرى التي استخدمت الشيفرة.

نظرًا لاستخدام المكتبة على نطاق واسع، كان يُعتقد بالطبع أن شخصًا ما قد تحقق من ثغراتها. ولكن بدلاً من ذلك، استمرت الثغرة لسنوات، مستخدمة بهدوء من قبل المهاجمين لاستغلال الأنظمة الضعيفة.

هذا هو الجانب المظلم من ChatGPT؛ فالمهاجمون أيضًا لديهم الوصول إلى الأداة. بينما قامت OpenAI بإنشاء بعض الحواجز لمنعها من الرد على أسئلة تتعلق بمواضيع إشكالية مثل حقن الشيفرة، فقد اكتشف فريق CyberArk Labs بالفعل بعض الطرق التي يمكن استخدامها لأغراض خبيثة. وقد حدثت اختراقات بسبب دمج الشيفرة بشكل أعمى دون تحقق شامل. يمكن للمهاجمين استغلال ChatGPT، باستخدام قدراته لإنشاء برامج ضارة متغيرة أو إنتاج شيفرة خبيثة بسرعة أكبر. حتى مع وجود الحواجز، يجب على المطورين توخي الحذر.

ChatGPT يولد الشيفرة.. لكن المطورين مسؤولون عنها

مع وضع هذه المخاطر الأمنية المحتملة في الاعتبار، هناك بعض الممارسات الجيدة المهمة التي يجب اتباعها عند استخدام الشيفرة المولدة بواسطة أدوات الذكاء الاصطناعي مثل ChatGPT. ويتضمن ذلك التحقق من الحل الذي قدمه ChatGPT مقابل مصدر آخر، مثل مجتمع تثق به أو أصدقاء. ويجب أيضًا التأكد من أن الشيفرة تتبع أفضل الممارسات لمنح الوصول إلى قواعد البيانات وغيرها من الموارد الحيوية، مع الالتزام بمبدأ الحد الأدنى من الامتياز، وإدارة الأسرار، وتدقيق الوصول، والمصادقة على الوصول إلى الموارد الحساسة.

تأكد من التحقق من الشيفرة بحثًا عن أي ثغرات محتملة وكن واعيًا لما تقدمه إلى ChatGPT أيضًا. وهناك تساؤل حول مدى أمان المعلومات التي تدخلها في ChatGPT، لذا كن حذرًا عند استخدام مدخلات حساسة للغاية. وتأكد من أنك لا تكشف عن أي معلومات تعريف شخصية قد تتعارض مع لوائح الامتثال.

وعلى الرغم من أن المطورين غالبًا ما لا يولدون الشيفرة بأنفسهم الآن، فإن المسؤولية لا تزال تقع عليهم. لا يمكنهم ببساطة الوثوق بآلة بشكل أعمى. لذا، لمنع المشكلات أو الاختراقات المحتملة، يجب عليهم التعاون مع فرق الأمن والتأكد من أنهم يفهمون ويتبنون أفضل الممارسات في أمان الهوية. وفي النهاية، يتحمل المستخدمون البشر عواقب أي شيفرة غير آمنة؛ لذا هم المسؤولون، وليس الآلة التي تولدت منها الشيفرة. لذلك، فإن التقييم الدقيق والالتزام بممارسات الأمن السيبراني أمران أساسيان عند استخدام ChatGPT، فقط حينها سيتمكن مطورو البرمجيات من تحسين الكفاءة باستخدام أدوات مساعدة بالذكاء الاصطناعي، دون تعريض الأمان للخطر.

 

المصدر: TechNative

 

اترك رد

Your email address will not be published.