التناقضات بين الثقة المتزايدة بالذكاء الاصطناعي الذي يُنتج المحتوى وزيادة عدد المستخدمين

26

Sam Jeans

انتشار الذكاء الاصطناعي الإنتاجي بوتيرة سريعة قد أثار إعجاب العالم، ولكن مع تقدم التكنولوجيا بوتيرة غير مسبوقة، ظهرت أزمة: تآكل الثقة العامة في صناعة الذكاء الاصطناعي. كشف مقياس الثقة “إيدلمان ترست باروميتر” لعام 2024، وهو استطلاع شامل شمل أكثر من 32 ألف مشارك في 28 دولة، عن انخفاض مذهل في الثقة العالمية في شركات الذكاء الاصطناعي، حيث انخفضت مستويات الثقة من 61% إلى 53% خلال خمس سنوات فقط.

خلال نفس الفترة، شهدت الولايات المتحدة تراجعًا حادًا في مستوى الثقة، حيث انخفضت نسبة الثقة من 50% إلى 35%. وقد تأثرت جميع الأطياف السياسية بهذا التراجع، حيث أعرب الديمقراطيون 38% والمستقلون 25% والجمهوريون 24% على حد سواء عن شكوك عميقة تجاه صناعة الذكاء الاصطناعي.

في الماضي، كانت قطاع التكنولوجيا يتمتع بثقة كبيرة من الجمهور. وقبل ثمانية أعوام، كانت التكنولوجيا هي الصناعة الأكثر ثقة في 90% من البلدان التي درستها إيدلمان.واليوم، انخفضت هذه النسبة إلى 50% فقط. في الواقع، فقدت قطاع التكنولوجيا مكانته كأكثر الصناعات ثقة في الأسواق الرئيسية مثل الولايات المتحدة والمملكة المتحدة وألمانيا وفرنسا.

عندما يتعلق الأمر بتقنيات محددة، فإن مستويات الثقة تكون أكثر إثارة للقلق.

في حين أن 76% من المشاركين العالميين يثقون بشركات التكنولوجيا بشكل عام، فإن 50% فقط يثقون بالذكاء الاصطناعي. وتتجلى هذه الفجوة البالغة 26 نقطة بشكل أكثر وضوحًا في مجالات مثل الطب القائم على الجينات (فجوة 23 نقطة) والأغذية المعدلة وراثيا “فجوة 40 نقطة”.

يسلط دراسة إيدلمان الضوء أيضًا على الانقسام الواضح بين الدول المتقدمة والنامية في مواقفها تجاه الذكاء الاصطناعي. يرفض المشاركون في فرنسا وكندا وأيرلندا والمملكة المتحدة والولايات المتحدة وألمانيا وأستراليا وهولندا والسويد، استخدام الذكاء الاصطناعي بنسبة ثلاثة إلى واحد. وفي المقابل، فإن قبول الذكاء الاصطناعي يفوق بشكل كبير المقاومة في الأسواق النامية مثل المملكة العربية السعودية والهند والصين وكينيا ونيجيريا وتايلاند.

ما هي العوامل التي تؤدي إلى عدم الثقة في صناعة الذكاء الاصطناعي الإنتاجي؟

عالميًا، تأتي المخاوف المتعلقة بالخصوصية 39% وتخفيض قيمة الإنسانية 36% والاختبارات غير الكافية 35% في مقدمة العوائق التي تواجه اعتماد التكنولوجيا الذكاء الاصطناعي. في الولايات المتحدة، هناك مخاوف حادة تتعلق بالضرر المجتمعي 61% والتهديدات التي تواجه الرفاهية الشخصية 57%. ومن المثير للانتباه أن نزوح الوظائف يحتل المرتبة الأخيرة في قائمة الأولويات على المستوى العالمي بنسبة 22% وفي الولايات المتحدة بنسبة  . %19.

تؤكد هذه النتائج ما توصلت إليه استطلاع أجرته معهد سياسات الذكاء الاصطناعي بالتعاون مع YouGov، حيث اتضح أن 72% من الناخبين الأميركيين يدعون إلى تباطؤ تطوير الذكاء الاصطناعي، في مقابل 8% فقط يفضلون التسريع فيه. كما كشف الاستطلاع أن 62% من الأميركيين يعبرون عن تخوفهم من الذكاء الاصطناعي، مقابل 21% فقط يشعرون بالحماس.

تسببت الخلافات الأخيرة، مثل تسرب أكثر من 16 ألف اسم لفنانين مرتبطين بتدريب نماذج إنتاج الصور لشركة Midjourney والكشف عن انتهاكات في شركتي Microsoft وGoogle، في زيادة المخاوف العامة تجاه صناعة الذكاء الاصطناعي. في حين يتطلع العمالقة في الصناعة مثل: سام ألتمان، وبراد سميث، وجينسن هوانغ، للتقدم في تطوير الذكاء الاصطناعي من أجل “الخير العام”، فإن الجمهور لا يشترك بالضرورة في نفس الحماسة. لإعادة بناء الثقة، يوصي تقرير إيدلمان بأن تتعاون الشركات مع الحكومة لضمان التطوير المسؤول وكسب ثقة الجمهور من خلال اختبارات شاملة.

العلماء والخبراء لا يزالون يحتفظون بالسلطة، لكنهم بحاجة متزايدة للمشاركة في الحوار العام. وقبل كل شيء، يرغب الناس في الشعور بالقدرة والسيطرة على كيفية تأثير الابتكارات الجديدة على حياتهم. كما قال “جاستن ويستكوت”، رئيس تكنولوجيا إيدلمان العالمي: “سيقود أولئك الذين يعطون الأولوية للذكاء الاصطناعي المسؤول، ويتعاونون بشفافية مع المجتمعات والحكومات، ويعيدون السيطرة إلى أيدي المستخدمين، ليس فقط صناعة التكنولوجيا، بل سيعيدون بناء جسر الثقة الذي فقدته التكنولوجيا في نقطة ما على طول الطريق”.

خوف من المجهول؟

على مر التاريخ البشري، كان ظهور التكنولوجيات الجديدة المبتكرة يرافقه تداخل معقد بين الدهشة والتبني والقلق. لا شك في أن الملايين من الأشخاص يستخدمون الذكاء الاصطناعي الإنتاجي بشكل منتظم الآن، حيث توضح الدراسات أن حوالي السدس من الأشخاص في الاقتصادات المتقدمة رقميًا يستخدمون أدوات الذكاء الاصطناعي يوميًا، وأغلبية كبيرة على الأقل جربتها. تشير دراسات في قطاعات مختلفة إلى أن الناس يوفرون ساعات يوميًا باستخدام الذكاء الاصطناعي الإنتاجي، مما يقلل من خطر الإجهاد النفسي ويخفف الأعباء الإدارية.

هل يشهد الذكاء الاصطناعي الإنتاجي مثل هذا الدورة من القلق في ظل الاعتماد عليه، مثلما حدث مع التكنولوجيات الأخرى؟

لنأخذ، على سبيل المثال، ظهور الطابعة في القرن الخامس عشر. هذه التكنولوجيا الثورية سمحت بديموقراطية الوصول إلى المعرفة، وفتحت الباب أمام الاتصالات الجماهيرية، وساهمت في التحولات الاجتماعية والسياسية والدينية العميقة. في ظل انتشار المواد المطبوعة بشكل سريع، كانت هناك مخاوف من إمكانية تداول المعلومات الخاطئة، وتآكل السلطة، وتعطيل الهياكل القوية الموجودة.

بالمثل، ثورة الصناعة في القرون الثامن عشر والتاسع عشر جلبت تقدمًا غير مسبوق في مجال التصنيع والنقل والاتصالات. المحرك البخاري والتلغراف ونظام المصنع غيرت بنية المجتمع، مطلقة إمكانيات جديدة للإنتاجية والتقدم. ومع ذلك، أثارت هذه الابتكارات مخاوف بشأن تهجير العمال، وتركيز الثروة والسلطة، والتأثيرات المتمثلة في إزالة الجوانب الإنسانية من الآلة.

ربما يمثل الذكاء الاصطناعي التوليدي ميزة غير معروفة، وربما لا يمكن التنبؤ به .والخوف المحيط به ليس ظاهرة جديدة تمامًا، بل هو صدى للأنماط التاريخية التي شكلت علاقتنا بالابتكارات التحويلية. هذا التناقض المحيط بالذكاء الاصطناعي الإنتاجي يعكس توترًا أعمق بين رغبتنا الفطرية في التقدم وخوفنا من المجهول. البشر منجذوبون إلى الجديد وإمكانيات التكنولوجيا الجديدة، ولكننا نواجه أيضًا عدم التيقن والمخاطر التي تأتي معها.

في عمله الكبير “الوجودية واللاشيء” (1943)، استكشف الفيلسوف الفرنسي “جان بول سارتر” مفهوم “النية السيئة”، وهي شكل من أشكال التضليل الذاتي حيث ينكر الأفراد مسؤوليتهم الخاصة في مواجهة القلق الوجودي. في سياق الذكاء الاصطناعي الإنتاجي، يُمكن اعتماد هذه التكنولوجيا على نطاق واسع، على الرغم من الشك والعداء المتزايد، كشكل من أشكال النية السيئة، وهو وسيلة لاستغلال فوائد الذكاء الاصطناعي مع تجنب المسائل الصعبة والمتنازع عليها من الناحية الأخلاقية.

علاوة على ذلك، فإن سرعة ومقدار تطور الذكاء الاصطناعي الإنتاجي تزيد من التناقض بين الاعتماد عليه والشك والعداء المتزايد. وعلى عكس الثورات التكنولوجية السابقة التي تكشفت على مدى عقود أو قرون، فإن صعود الذكاء الاصطناعي يحدث بسرعة غير مسبوقة، وهو ما يتجاوز قدرتنا على فهم آثاره وتطوير أطر الحوكمة الكافية بشكل كامل. هذا التقدم السريع أثار شعورًا لدى الكثيرين بالدوار، وكأن الأرض تحت أقدامهم تتحرك بسرعة أكبر من قدرتهم على التكيف. كما كشف أيضًا عن قيود الهياكل القانونية والأخلاقية والاجتماعية الحالية، التي تواجه صعوبة في مواكبة القوة التحويلية للذكاء الاصطناعي.

يجب أن نعمل على خلق مستقبل يتحقق فيه فوائد هذه التكنولوجيا بطريقة تحافظ على قيمنا، وتحمي حقوقنا، وتعزز المصلحة العامة. التحدي هو أن “المصلحة العامة” هي شيء ذو طابع شديد الاختلاف والغموض. إنه عبارة يستخدمها الشركات مثل OpenAI بشكل متكرر ولها طابع قمعي قليلاً يثير القلق. على أي حال، توجيه الذكاء الاصطناعي الإنتاجي نحو المصلحة العامة سيتطلب حوارًا مفتوحًا وصادقًا، واستعدادًا لمواجهة الأسئلة الصعبة، والتزامًا ببناء جسور من الفهم والثقة.

يجب أن يتكيف النظام القانوني أيضًا ليمهد الطريق لتطوير الذكاء الاصطناعي العادل والشفاف، والابتعاد عن عصر الاستخراج التعسفي للبيانات وسوء استخدام الملكية الفكرية. ثم، قد نرى الثقة تبدأ في الارتفاع.

المصدر: DAily.ai

اترك رد

Your email address will not be published.