الذكاء الاصطناعي.. مارد يهدد بالانقلاب على مطوّريه

26

AI بالعربي – متابعات

يخشى البشر أن يصل تطوّر الذكاء الاصطناعي ذات يوم إلى درجة ينقلب فيها على مخترعيه ويدمّر البشرية. وتشكّل الخوارزميات جزءاً من الحياة اليومية للبشر منذ فترة طويلة، لكنّ النجاح غير المسبوق الذي حققه برنامج تشات جي.بي.تي المطوّر من شركة أوبن أي.آي أعاد إشعال الجدل في عام 2023.   وفي هذا الإطار يُثير ما يُسمى بالذكاء الاصطناعي التوليدي، القادر على إنتاج النصوص والصور والأصوات بأوامر بسيطة في لغة الحياة اليومية، بشكل خاص مخاوف مرتبطة بتقادم بعض الوظائف. وقد كان للاعتماد على الآلات في إنجاز عدد كبير من المهام التأثير بالفعل في قطاعات عدة، من الزراعة إلى المصانع. وبفضل قدراته التوليدية، يؤثر الذكاء الاصطناعي الآن أيضاً على فئات واسعة من العمّال، من أمثال الموظفين الإداريين والمحامين والأطباء والصحافيين والمدرّسين، وما إلى ذلك.

وقالت شركة “ماكينزي” الاستشارية في يوليو “بحلول عام 2030، يمكن استخدام الآلات لإنجاز ما يصل إلى 30 في المئة من ساعات العمل حالياً في الاقتصاد الأميركي، وهو اتجاه تسارع من خلال الذكاء الاصطناعي التوليدي”. ,وفقًأ لما نشرته صحيفة العرب. وكحلّ لذلك، تستحضر شركات التكنولوجيا الأميركية الكبرى غالباً مبدأ الدخل الأساسي الشامل، أي الحد الأدنى من المخصصات للجميع، ما من شأنه أن يعوّض عن خسارة الوظائف، حتى ولو لم تثبت جدواه على نطاق واسع.

وكان الفنانون من أوائل المعترضين على برامج من أمثال “دال-إي” (من أوبن أي.آي) أو “ميدجورني” التي تولد الصور حسب الطلب. وهم على غرار المطوّرين والكتاب وغيرهم من أصحاب المهن الإبداعية، يأخذون على الشركات استخدامها أعمالهم لإنشاء التكنولوجيا الخاصة بها، من دون إذن أو تعويض. ونظراً لأن الذكاء الاصطناعي التوليدي يعتمد على نماذج اللغة، فإن أنظمة الكمبيوتر تتطلب استرداد كميات كبيرة من البيانات عبر الإنترنت. وقال مؤسس أوبن أي.آي سام ألتمان في مؤتمر عُقد في سبتمبر “ندرّب الذكاء الاصطناعي ليكون، بطريقة ما، البشرية جمعاء. لقد جرى تدريبه على أن يُنتج جزءاً كبيراً مما تنتجه البشرية”.

وأكد أن “هذه الأداة ستزيد من قدرات الإنسان ولن تحل محله”. وثمة دعاوى قضائية عدة مرفوعة من شأنها أن تعيد تعريف مفهوم الملكية الفكرية. والأخبار المزيفة والتزييف العميق ليست بالأمر الجديد، لكنّ الذكاء الاصطناعي التوليدي يثير مخاوف من زيادة المحتويات الزائفة عبر الإنترنت. ويؤكد المتخصص في الذكاء الاصطناعي غاري ماركوس أن الانتخابات قد “يفوز بها الأشخاص الأكثر موهبة في نشر المعلومات المضللة”. وبالدرجة الأولى “تعتمد الديمقراطية على القدرة على الوصول إلى المعلومات الضرورية لاتخاذ القرارات الصحيحة. وإذا لم يعد أحد قادراً على التمييز بين ما هو صحيح وما ليس كذلك، تكون تلك النهاية”، حسب ماركوس.

ويسهّل الذكاء الاصطناعي التوليدي أيضاً على المحتالين إنشاء رسائل أكثر إقناعاً للضالعين في أنشطة التصيّد الإلكتروني، حتى أن هناك نماذج لغوية تم تدريبها خصيصاً لإنتاج محتوى ضار، مثل “فرود جي.بي.تي”. لكن قبل كل شيء، جعلت التكنولوجيا من السهل جداً نسخ وجه أو صوت وبالتالي خداع الناس لدفعهم للاعتقاد على سبيل المثال بأن طفلهم مختطف بهدف ابتزازهم. وكما الحال مع الكثير من التقنيات الأخرى، يرتبط الخطر الرئيسي للذكاء الاصطناعي بالبشر، من التصميم وحتى الاستخدام

ومن الأمثلة على ذلك، يمكن لبرامج التوظيف أن تميّز ضد المرشحين إذا ما كانت تعيد إنتاج التحيزات البشرية الموجودة في المجتمع بشكل آلي. والنموذج اللغوي ليس مدافعاً عن حقوق الفئات المهمّشة، وليس عنصريا في حد ذاته، ويتوقف أداؤه على البيانات والتعليمات المقدمة من مطوّريه. وبشكل عام، يمكن للذكاء الاصطناعي أن يسهّل العديد من الأنشطة التي تشكل خطورة على البشر وحقوقهم الأساسية، بدءاً من اختراع الجزيئات الضارة وحتى مراقبة السكان. ويخشى البعض في القطاع من أن يصبح الذكاء الاصطناعي قادراً على التفكير إلى الحد الذي يمكنه من السيطرة على البشر.

وتعمل شركة أوبن أي.آي على بناء “الذكاء العام الاصطناعي” (بما يتخطى الذكاء البشري)، بهدف “إفادة البشرية جمعاء”. وهي تعتمد على الاستخدام واسع النطاق لنماذجها لاكتشاف المشكلات وتصحيحها. وفي الوقت نفسه، دعا ألتمان وغيره من قادة شركات التكنولوجيا الكبرى هذا الصيف إلى مكافحة “مخاطر زوال البشرية بسبب الذكاء الاصطناعي”. وبالنسبة إلى المؤرخ إميل توريس، فإن ذلك يمثل إلهاءً عن مشاكل حقيقية للغاية. وقال في تصريحات أدلى بها أخيراً “الحديث عن زوال البشرية، وهو حدث مروع حقيقي، أكثر جاذبية بكثير من الحديث عن العمّال الكينيين الذين يتقاضون 1.32 دولار في الساعة” للإشراف على محتوى مستخدم في الذكاء الاصطناعي “أو استغلال الفنانين والكتّاب” لتغذية نماذج الذكاء الاصطناعي.

اترك رد

Your email address will not be published.