AI بالعربي – متابعات
يرى باحثون دوليون أن الاعتماد على القوانين لتوجيه سلوك أنظمة الذكاء الاصطناعي قد يجعلها أكثر أمانًا وأخلاقية، وفق ورقة بحثية تحليلية حديثة شارك في إعدادها خبراء من جامعات هارفارد وستانفورد ومعهد ماساتشوستس للتكنولوجيا وأكسفورد، إلى جانب عدد من المؤسسات الأكاديمية العالمية. وتأتي هذه الدراسة في ظل تصاعد الاهتمام العالمي بآليات ضبط سلوك النماذج الذكية مثل ChatGPT وأنظمة جوجل ومنصات OpenAI، مع توسع استخدامها في مجالات اقتصادية وخدمية متعددة.
وتهدف الورقة إلى تقييم الأساليب الحالية المستخدمة لتنظيم عمل الذكاء الاصطناعي، حيث لاحظ الباحثون أن كثيرًا من هذه الأساليب يعتمد على قواعد تضعها الشركات أو على تفضيلات المستخدمين، وهو ما قد لا يعكس دائمًا القيم الاجتماعية أو المعايير القانونية السائدة في المجتمعات المختلفة.
وتشير الدراسة إلى أن هذا الاعتماد قد يؤدي أحيانًا إلى ظهور سلوكيات غير متوقعة من بعض الأنظمة الذكية، مثل تقديم مساعدة في أنشطة غير قانونية أو الانخراط في ممارسات تتعلق بالاختراق أو التلاعب بالمعلومات، خاصة عند غياب قيود تنظيمية واضحة ومحددة.
وفي هذا السياق، يطرح الباحثون مفهومًا جديدًا يسمى “المواءمة القانونية”، وهو إطار فكري وتقني يسعى إلى ربط تصميم أنظمة الذكاء الاصطناعي بالمبادئ والقواعد القانونية المعتمدة، بحيث تصبح القوانين مصدرًا رئيسيًا لتحديد السلوك المقبول لهذه الأنظمة. ويرى معدو الدراسة أن القانون يتمتع بميزة أساسية تتمثل في كونه نتاج توافق مؤسسي واجتماعي طويل الأمد، ما يمنحه درجة أعلى من الشرعية والوضوح مقارنة بالقواعد الداخلية التي تعتمدها الشركات التقنية بصورة منفردة.
وتقترح الدراسة عددًا من المسارات العملية للاستفادة من هذا الإطار، إذ يدعو الباحثون إلى تصميم النماذج الذكية بحيث تلتزم بالقوانين عند اتخاذ القرارات أو تقديم التوصيات، بما يساعد على تقليل المخاطر المرتبطة باستخدام هذه التقنيات في أنشطة ضارة أو غير قانونية. كما يشيرون إلى أهمية إدماج أساليب التفكير القانوني داخل الأنظمة الذكية، حتى تتمكن من تفسير القواعد وتطبيقها في مواقف جديدة ومعقدة بطريقة متوازنة تراعي السياقات المختلفة.
ويؤكد الباحثون كذلك أن الاستفادة من مفاهيم قانونية مثل المسؤولية والوكالة قد تسهم في تنظيم عمل الذكاء الاصطناعي بصورة أكثر وضوحًا، من خلال تحديد حدود صلاحيات الأنظمة الذكية ومسؤوليات الجهات المطورة لها. ويرون أن هذا النهج قد يساعد على بناء منظومة تقنية أكثر استقرارًا وموثوقية، خاصة مع تزايد الاعتماد على الذكاء الاصطناعي في قطاعات حساسة مثل الأمن الرقمي والرعاية الصحية والخدمات الحكومية.
وتشير الدراسة إلى أن دمج القوانين في تصميم الذكاء الاصطناعي قد يؤدي إلى تعزيز ثقة المجتمع والمؤسسات في هذه التقنيات، إذ يشعر المستخدمون بقدر أكبر من الأمان عندما يدركون أن الأنظمة الذكية تعمل وفق أطر قانونية واضحة. كما يمكن أن يسهم هذا التوجه في دعم جهود الحكومات الرامية إلى تطوير تشريعات حديثة لتنظيم استخدام الذكاء الاصطناعي، بما يحقق التوازن بين تشجيع الابتكار وحماية المصالح العامة.
ويخلص الباحثون إلى أن مستقبل الذكاء الاصطناعي قد يعتمد بدرجة كبيرة على القدرة على تحقيق هذا التوازن بين التقدم التقني والضبط القانوني المسؤول، إذ يمكن أن يشكل مفهوم “المواءمة القانونية” خطوة مهمة نحو تطوير تقنيات أكثر أمانًا واستدامة. ومع استمرار المنافسة العالمية في هذا المجال، تبرز الحاجة إلى أطر تنظيمية مشتركة تسهم في توجيه مسار الذكاء الاصطناعي نحو خدمة المجتمع وتقليل المخاطر المحتملة المرتبطة باستخدامه.






