موظفو Samsung سربوا بيانات حساسة إلى ChatGPT
ظاهريًا، قد يبدو ChatGPT كأداة يمكن أن تكون مفيدة لمجموعة من مهام العمل. ولكن قبل أن تطلب من chatbot تلخيص المذكرات المهمة أو التحقق من عملك بحثًا عن الأخطاء، يجدر بنا أن نتذكر أن أي شيء تشاركه مع ChatGPT يمكن استخدامه لتدريب النظام وربما يظهر في ردوده على المستخدمين الآخرين.
جوجل متهمة باستخدام بيانات ChatGPT لتطوير Bard
هذا شيء ربما كان ينبغي على العديد من موظفي Samsung أن يكونوا على دراية به قبل أن يُقال إنهم يشاركون معلومات سرية مع chatbot.
بعد فترة وجيزة من بدء قسم أشباه الموصلات في سامسونج السماح للمهندسين باستخدام ChatGPT، سرب العمال معلومات سرية إليه في ثلاث مناسبات على الأقل، وفقًا لمجلة The Economist Korea (كما رصدتها Mashable).
وبحسب ما ورد طلب أحد الموظفين من chatbot التحقق من شفرة مصدر قاعدة البيانات الحساسة بحثًا عن الأخطاء، وطلب آخر تحسين الكود، وقام ثالث بتغذية اجتماع مسجل في ChatGPT وطلب منه إنشاء دقائق.
تشير التقارير إلى أنه بعد التعرف على الأخطاء الأمنية، حاولت Samsung الحد من مدى الأخطاء المستقبلية من خلال تقييد طول رسائل ChatGPT للموظفين إلى كيلوبايت
تنص سياسة بيانات ChatGPT على أنه ما لم ينسحب المستخدمون صراحةً، فإنه يستخدم مطالباتهم لتدريب نماذجها. يحث OpenAI، مالك برنامج chatbot، المستخدمين على عدم مشاركة المعلومات السرية مع ChatGPT في المحادثات لأنه غير قادر على حذف مطالبات معينة من سجلك، الطريقة الوحيدة للتخلص من معلومات التعريف الشخصية على ChatGPT هي حذف حسابك - وهي عملية قد تستغرق ما يصل إلى أربعة أسابيع.
تعد ملحمة Samsung مثالًا آخر على سبب وجوب توخي الحذر عند استخدام روبوتات الدردشة، كما ينبغي لك في كل أنشطتك عبر الإنترنت. أنت لا تعرف حقًا أين ستنتهي بياناتك.