استخدام ChatGPT و AI سرا يشكل مخاطر كبيرة للتكنولوجيا
أدى الاستثمار المرتفع من شركات التكنولوجيا الكبرى في الذكاء الاصطناعي وروبوتات الدردشة - وسط عمليات تسريح جماعي للعمال وتراجع في النمو - إلى ترك العديد من كبار مسؤولي أمن المعلومات في دوامة.
من خلال ChatGPT من OpenAI ، و Bing AI من Microsoft ، وخطة Google Bard و Elon Musk لروبوت الدردشة الخاص به التي تتصدر عناوين الصحف ، تتسرب منظمة العفو الدولية التوليدية إلى مكان العمل ، ويحتاج كبار مسؤولي أمن المعلومات إلى التعامل مع هذه التقنية بحذر والاستعداد للتدابير الأمنية اللازمة.
إن التقنية الكامنة وراء GPT ، أو المحولات المولدة مسبقًا ، مدعومة بنماذج لغة كبيرة (LLMs) ، أو خوارزميات تنتج محادثات شبيهة بالبشر في روبوت الدردشة. ولكن ليس لكل شركة GPT الخاصة بها ، لذلك تحتاج الشركات إلى مراقبة كيفية استخدام العمال لهذه التكنولوجيا.
سيستخدم الناس الذكاء الاصطناعي التوليدي إذا وجدوا أنه من المفيد القيام بعملهم ، كما يقول مايكل تشوي ، الشريك في معهد ماكينزي العالمي ، ومقارنته بالطريقة التي يستخدم بها العمال أجهزة الكمبيوتر الشخصية أو الهواتف.
قال تشوي: "حتى عندما لا تتم المصادقة عليها أو تباركها من قبل قسم تكنولوجيا المعلومات ، يجد الناس أن [chatbots] مفيدة".
قال: "على مر التاريخ ، وجدنا تقنيات مقنعة جدًا لدرجة أن الأفراد على استعداد لدفع ثمنها". "كان الناس يشترون الهواتف المحمولة قبل وقت طويل من قول الشركات ،" سأزودك بهذا ". كانت أجهزة الكمبيوتر متشابهة ، لذلك نحن نرى ما يعادل الآن مع الذكاء الاصطناعي التوليدي."
وأضاف تشوي أنه نتيجة لذلك ، هناك "تعويض" للشركات فيما يتعلق بكيفية التعامل مع الإجراءات الأمنية.
سواء كانت ممارسة أعمال قياسية مثل مراقبة المعلومات التي يتم مشاركتها على نظام أساسي للذكاء الاصطناعي أو دمج GPT المعتمد من الشركة في مكان العمل ، يعتقد الخبراء أن هناك مجالات معينة يجب أن يبدأ فيها CISOs والشركات.
ابدأ بأساسيات أمن المعلومات
يتعامل CISOs - الذين يكافحون بالفعل الإرهاق والإجهاد - مع مشاكل كافية ، مثل هجمات الأمن السيبراني المحتملة واحتياجات التشغيل الآلي المتزايدة. مع انتقال AI و GPT إلى مكان العمل ، يمكن أن يبدأ CISOs بأساسيات الأمان.
قال تشوي إنه يمكن للشركات ترخيص استخدام نظام أساسي قائم على الذكاء الاصطناعي ، حتى يتمكنوا من مراقبة ما يقوله الموظفون لروبوت الدردشة والتأكد من حماية المعلومات التي يتم مشاركتها.
قال تشوي: "إذا كنت شركة ، فأنت لا تريد أن يطالب موظفوك برنامج دردشة آلي متاح للجمهور بمعلومات سرية". "لذلك ، يمكنك وضع الوسائل التقنية في مكانها الصحيح ، حيث يمكنك ترخيص البرنامج والحصول على اتفاقية قانونية واجبة النفاذ حول المكان الذي تذهب إليه بياناتك أو لا تذهب إليه."
قال تشوي إن ترخيص استخدام البرامج يأتي مصحوبًا بضوابط وتوازنات إضافية. حماية المعلومات السرية ، وتنظيم مكان تخزين المعلومات ، وإرشادات حول كيفية
قال تشوي: "إذا كان لديك اتفاق ، فيمكنك تدقيق البرنامج ، حتى تتمكن من معرفة ما إذا كانوا يحمون البيانات بالطرق التي تريدها أن تكون محمية".
قال تشوي إن معظم الشركات التي تخزن المعلومات باستخدام البرامج المستندة إلى السحابة تفعل ذلك بالفعل ، لذا فإن المضي قدمًا وتزويد الموظفين بمنصة ذكاء اصطناعي معتمدة من الشركة تعني أن الأعمال التجارية تتماشى بالفعل مع ممارسات الصناعة الحالية.
كيفية إنشاء أو دمج GPT مخصص
أحد خيارات الأمان للشركات هو تطوير GPT الخاصة بها ، أو استئجار الشركات التي تبتكر هذه التكنولوجيا لعمل نسخة مخصصة ، كما يقول سمير بيناكالاباتي ، الرئيس التنفيذي في Ceipal ، وهي منصة لاكتساب المواهب تعتمد على الذكاء الاصطناعي.
في وظائف محددة مثل الموارد البشرية ، هناك منصات متعددة من Ceipal إلى TalentGPT من Beamery ، وقد تفكر الشركات في خطة Microsoft لتقديم GPT قابلة للتخصيص. ولكن على الرغم من ارتفاع التكاليف بشكل متزايد ، قد ترغب الشركات أيضًا في إنشاء التكنولوجيا الخاصة بها.
إذا أنشأت شركة GPT خاصة بها ، فسيكون للبرنامج المعلومات الدقيقة التي يريد أن يتمكن الموظفون من الوصول إليها. قال بيناكالاباتي إن الشركة يمكنها أيضًا حماية المعلومات التي يغذيها الموظفون بها ، لكن حتى التعاقد مع شركة ذكاء اصطناعي لإنشاء هذه المنصة سيمكن الشركات من تغذية المعلومات وتخزينها بأمان.
أيا كان المسار الذي تختاره الشركة ، قال Penakalapati أنه يجب على CISOs أن يتذكروا أن هذه الآلات تعمل بناءً على الطريقة التي تم تدريسها بها. من المهم أن تكون مقصودًا بشأن البيانات التي تقدمها للتكنولوجيا.
قال بيناكالاباتي: "أقول دائمًا للناس أن يتأكدوا من أن لديك تقنية توفر معلومات تستند إلى بيانات غير متحيزة ودقيقة". "لأن هذه التكنولوجيا لم يتم إنشاؤها عن طريق الصدفة."