تحذير قانوني من OpenAI: محادثاتك مع ChatGPT ليست سرية وقد تُستخدم ضدك

AI بالعربي – متابعات

تصدّر الرئيس التنفيذي لشركة OpenAI، سام ألتمان، عناوين الأخبار بعد تصريحاته الأخيرة التي أطلقها خلال ظهوره في بودكاست “This Past Weekend”، حيث حذر المستخدمين من الاعتماد على الخصوصية في محادثاتهم مع روبوت الدردشة الشهير ChatGPT. وجاء هذا التحذير ليضع تساؤلات جدية حول مفهوم الخصوصية في عصر الذكاء الاصطناعي، خاصة مع تزايد استخدام هذه الأدوات في مسائل شخصية وحساسة مثل العلاج النفسي والدعم العاطفي والعلاقات الأسرية.

ألتمان أوضح أن المنظومة القانونية الحالية لا تواكب التقدم السريع في تقنيات الذكاء الاصطناعي، ما يجعل المحادثات مع ChatGPT غير مشمولة بأي حماية قانونية من نوع “السرية المهنية” المعروفة في التعامل مع الأطباء أو المحامين أو المعالجين النفسيين. وأضاف: “يتحدث الشباب مع ChatGPT عن مشكلاتهم الشخصية والعاطفية، بينما لا توجد ضمانات قانونية لحماية هذه المعلومات، وإذا تطلب الأمر تقديمها للمحكمة فقد نُجبر على ذلك”.

وتأتي هذه التصريحات في وقت حساس يشهد تصاعدًا في استخدام تطبيقات الذكاء الاصطناعي بشكل يومي من قبل ملايين الأشخاص حول العالم، من بينهم فئات عمرية صغيرة وشخصيات عامة. وأشار ألتمان إلى أن OpenAI تحتفظ بمحادثات المستخدمين، حتى تلك المتعلقة بالصحة النفسية والنصائح العاطفية، ويمكن مشاركتها مع جهات قانونية في حال وجود دعاوى قضائية، على عكس تطبيقات مثل واتساب وSignal التي توفر تشفيرًا كاملاً للمحادثات.

وفي حين تؤكد الشركة أنها تحذف المحادثات على النسخة المجانية من ChatGPT بعد 30 يومًا، فإن بعض البيانات تُخزّن لأغراض قانونية وأمنية. كما تخوض OpenAI حاليًا معركة قضائية مع صحيفة “نيويورك تايمز”، تتطلب منها الحفاظ على سجلات المحادثات التي أجراها المستخدمون على المنصة، ما يزيد من الجدل حول حدود الأمان الرقمي والخصوصية.

هذه التصريحات أعادت تسليط الضوء على أهمية التوعية بسياسات الخصوصية الرقمية، ودعت المستخدمين إلى التفكير مرتين قبل مشاركة معلوماتهم الحساسة مع أدوات الذكاء الاصطناعي. ومع غياب الأطر القانونية الواضحة، تصبح المسؤولية الفردية أداة الدفاع الأولى عن الخصوصية الشخصية في الفضاء الرقمي.