“مشروع جارفيز” من “جوجل”.. هل تفتح رفاهية المعلومة أبوابًا نحو تعزيز المسؤولية؟

8

AI بالعربي – متابعات

تسعى منصة جوجل منذ تأسيسها إلى الاستفادة من جميع فرص التطور والتطوير، والتصدي لأي محاولات تعيق ذلك. يظهر هذا الالتزام جليًا من خلال مشروع جارفيز، الذي يعكس حرص الشركة على استغلال التقدم التكنولوجي لتحسين تجربة المستخدمين.

تتيح جوجل المعلومات بطرق جديدة ومبتكرة، مما يفتح المجال لنقاشات حول المسؤولية المرتبطة باستخدام الذكاء الاصطناعي. مع تزايد الاعتماد على الذكاء الاصطناعي في اتخاذ القرارات، تبرز الحاجة إلى وجود ضوابط أخلاقية وقوانين تحمي الخصوصية. لذا، يتطلب نجاح جارفيز استجابة واعية لمخاطر الاستخدام غير المسؤول، لضمان تحقيق التوازن بين توفير المعلومات وحقوق المستخدمين.

جارفيز.. السيطرة على مواقع الشبكة

تخطط شركة جوجل لإحداث ثورة في كيفية استخدام الذكاء الاصطناعي من خلال تطوير تقنية جديدة تُعرف بـ”مشروع جارفيز”. هذه التقنية ستمكن الذكاء الاصطناعي من السيطرة على متصفح الإنترنت لأداء مهام متعددة مثل البحث والتسوق. ويتوقع أن يتم الكشف عن هذه التكنولوجيا في ديسمبر المقبل، بالتزامن مع إطلاق نموذجها الجديد من الذكاء الاصطناعي المعروف باسم “جمني”.

تعتبر هذه الخطوة جزءًا من استراتيجية جوجل الهادفة إلى تحسين تجربة المستخدم من خلال أتمتة المهام اليومية، مما يتيح للمستخدمين التركيز على أنشطتهم الأساسية. في المقابل، تسعى شركات مثل مايكروسوفت أيضًا لتطوير نماذج ذكاء اصطناعي قادرة على إجراء البحوث بشكل مستقل عبر الإنترنت، باستخدام وكلاء حاسوبيين.

من جهة أخرى، تعمل جوجل مع شركة “أنتروبيك” لتقديم مفهوم الوكيل البرمجي بشكل أكثر تطورًا، حيث سيتفاعل هذا البرنامج بشكل مباشر مع أجهزة الكمبيوتر والمتصفحات الخاصة بالمستخدمين. هذه التكنولوجيا تعكس اتجاهًا جديدًا في عالم الذكاء الاصطناعي، حيث يصبح بإمكان المستخدمين الحصول على تجارب أكثر تخصيصًا وسلاسة.

هنا يكون السؤال: ما المسؤولية التي ستكون على عاتق المستخدِم؟

ستصبح مفاهيم الأمانة والتحلّي بأخلاقيات العلم أكثر ضرورة، مما يعني أن التطور القادم يجب أن يترافق مع نظام من التوصيات التي تلتزم بقيم معينة، ومسارات أكثر انفتاحًا في مجالات العلم وتقييم الأعمال المختلفة. من الضروري التأكيد على مدى دقة ما يتم تصنيعه أو إنتاجه باستخدام أدوات الذكاء الاصطناعي.

تشير عشوائية الذكاء الاصطناعي إلى التفاعلات والقرارات التي تتخذها نماذج الذكاء الاصطناعي، والتي قد تبدو غير متوقعة أو عشوائية. يمكن أن تنجم هذه العشوائية عن عدة عوامل، منها:

  • البيانات المدخلة: يعتمد الذكاء الاصطناعي بشكل كبير على البيانات التي يتم تدريبه عليها. إذا كانت البيانات تحتوي على تباينات أو شذوذ، فقد تؤدي إلى نتائج غير متوقعة.
  • الخوارزميات: بعض الخوارزميات المستخدمة في الذكاء الاصطناعي، مثل الشبكات العصبية، تتضمن عناصر عشوائية في طريقة معالجتها للبيانات. هذا يمكن أن يؤدي إلى نتائج مختلفة عند كل مرة يتم فيها تنفيذ النموذج.
  • اختيار المعلمات: أثناء عملية التدريب، يتم اختيار معلمات معينة قد تؤثر على أداء النموذج. إذا كانت هذه الاختيارات تعتمد على أساليب عشوائية، فقد تؤدي إلى نتائج غير مستقرة.
  • التفاعل مع المستخدم: في بعض التطبيقات، مثل المساعدات الشخصية أو الألعاب، قد يتفاعل الذكاء الاصطناعي مع المستخدم بطرق تبدو عشوائية، مما يزيد من عنصر المفاجأة.
  • الإبداع: في مجالات مثل الفن أو الموسيقى، يمكن للذكاء الاصطناعي إنتاج أعمال تبدو عشوائية ولكنها قد تكون مبتكرة ومختلفة.

تضليل معلوماتي

شهدت السنوات الأخيرة زيادة ملحوظة في استخدام تقنيات الذكاء الاصطناعي لتوليد ونشر المعلومات المضللة، خاصة في مجالات الانتخابات والحروب والكوارث الطبيعية. وفقًا لتقرير منظمة “نيوز غارد” المتخصصة في تتبع المعلومات المضللة، ارتفع عدد المواقع التي تنشر مقالات مضللة من إنتاج الذكاء الاصطناعي من 49 موقعًا في مايو 2023 إلى أكثر من 600 موقع بنهاية العام.

يُستخدم الذكاء الاصطناعي في الصحافة لإعادة تشكيل المشهد الإعلامي وتقديم معلومات دقيقة وشاملة. من خلال أدواته، يمكن تحسين جودة المحتوى وتطويره بشكل آلي. على سبيل المثال، تستخدم بعض المؤسسات الإعلامية الذكاء الاصطناعي لتسهيل جمع المعلومات وتحليل البيانات، مما يساهم في إنتاج محتوى إخباري أكثر دقة وموضوعية.

من ناحية أخرى، يبرز استخدام الذكاء الاصطناعي في إنشاء المعلومات المضللة التحديات التي يواجهها الصحفيون والمؤسسات الإعلامية؛ لذلك تتطلب مواجهة هذه الظاهرة استراتيجيات متخصصة، بما في ذلك تعزيز مهارات الصحفيين في استخدام الذكاء الاصطناعي والتكنولوجيا الحديثة، لضمان تقديم معلومات موثوقة ودقيقة للجمهور.

صورة وهمية

في عام 2023، أدلت كايلين هايمان بشهادتها في محكمة بيتسبرغ ضد رجل لم تقابله قط، الذي استخدم وجهها لإنشاء صور إباحية باستخدام تقنية الذكاء الاصطناعي. الفتاة البالغة من العمر 16 عامًا هي ممثلة طفلة، وقد لعبت دور البطولة في برنامج ديزني “Just Roll With It” من عام 2019 إلى عام 2021. الجاني، وهو رجل يبلغ من العمر 57 عامًا يُدعى جيمس سميلكو، استهدفها بسبب ملفها الشخصي العام.

اكتشفت التحقيقات أن المدعية كانت واحدة من حوالي 40 ضحية للجاني، وجميعهم ممثلون أطفال. في إحدى الصور التي قُدمت كدليل في المحاكمة، استخدم سميلكو وجه كايلين من صورة نُشرت على إنستغرام عندما كانت تبلغ من العمر 12 عامًا، حيث كانت تعمل في موقع التصوير، وألصق وجهها على جسد شخص عارٍ آخر. على الرغم من إثبات الحقيقة، بكت الطفلة وقالت: “جسدي لم يعد ملكي”.

فيديو العمالقة “بناة الأهرام

استنكر مجموعة من الأثريين، مؤخرًا، مقطع الفيديو القصير المُنتَج باستخدام الذكاء الاصطناعي، الذي أثار جدلًا واسعًا عند تداوله عبر مواقع التواصل الاجتماعي. يظهر الفيديو عمالقة يحملون الأحجار لبناء الأهرامات، مما يوحي بأن هذا العمل التاريخي يعود لغير المصريين. وقد حظي الفيديو بانتشار كبير في دوائر غير علمية، على الرغم من التأكيدات بأن بناة الأهرامات والمعابد لم يتجاوز طولهم 172 سم، وهو الطول الطبيعي للمصريين القدماء.

وبالتالي، تبرز قضية هامة مفادها أن حروب المستقبل ستكون حروبًا فكرية، قد تُستخدم فيها تقنيات مثل الذكاء الاصطناعي لتشويه التاريخ وسرقة العقول، مما يؤدي إلى التشكيك في الحقائق الثابتة، وربَّما انتصار الخرافات التي تم دحضها علميًا.

لسنا بصدد التعامل مع بُكائيات أو تقديم مأساويات أو صياغة سيناريوهات مستقبلية أكثر رعبًا كأمر واقع حتمي، بل يشير الأمر إلى مشاعر الغضب والقلق لدى كثيرين قد يتعرضون لحملات تشويه السمعة، مما يؤدي إلى فقدان الخبر الحسن والعمل الجيد قيمته أمام أعمال أقل جودة أو أكثر دنوًّا. وهذا يطرح عددًا من التكهنات والتساؤلات، في مقدمتها: “كيف وإلى أي درجة يمكن تطوير المحتوى (الذكي) – محل البحث – أو تحسينه عبر مواقع الإنترنت بدلًا من تقديمه بالشكل الخام أو كما هو عليه؟”.

ختامًا، مع مشهد يلوح في أُفق التغيير المعلوماتي، يبقى السؤال قائمًا حول كيفية تأثير هذه التطوُّرات على المستخدمين، من جوانب تشمل الخصوصية وحرية انتقاء المعلومات التي تتطوَّر إلى معلومة، ربَّما لا تخلو من العشوائية والتشويه، في حالة عدم ضبطها. فهل تلتزم جوجل وشركات التكنولوجيا الأخرى بتطوير ضوابط مناسبة لضمان الاستخدام الآمن والمسؤول لهذه التقنيات الجديدة؟ وهل تضمن هذه الضوابط بناء الثقة بين المستخدمين ومزودي الخدمة؟

 

اترك رد

Your email address will not be published.