رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين

ماذا تعرف روبوتات الدردشة بالذكاء الاصطناعي عنا ومع من يشاركونها؟

ChatGPT
ChatGPT

 روبوتات الدردشة المدعومة بالذكاء الاصطناعي قديمة نسبيًا وفقًا للمعايير التقنية، لكن أحدث المحاصيل - بقيادة ChatGPT من OpenAI وGoogle Bard - أكثر قدرة بكثير من أسلافهم، ليس دائمًا لأسباب إيجابية.

 

 تأثيرات ChatGPT في الأمن الرقمي

 أدى الانفجار الأخير في تطوير الذكاء الاصطناعي إلى إثارة مخاوف بشأن المعلومات الخاطئة والتضليل والانتحال والبرامج الضارة التي يتم إنشاؤها بواسطة الأجهزة.

 

 ما هي المشاكل التي قد تطرحها تقنية الذكاء الاصطناعي على خصوصية مستخدم الإنترنت العادي؟ الإجابة، وفقًا للخبراء، تتعلق إلى حد كبير بكيفية تدريب هذه الروبوتات ومدى تخطيطنا للتفاعل معها.

 

 من أجل تكرار التفاعلات الشبيهة بالبشر، يتم تدريب روبوتات الدردشة بالذكاء الاصطناعي على كميات ضخمة من البيانات، جزء كبير منها مشتق من مستودعات مثل الزحف المشترك.

 

 كما يوحي الاسم، جمعت Common Crawl سنوات وبيتابايتات من البيانات ببساطة من الزحف وكشط الويب المفتوح، قالت ميجا سريفاستافا، طالبة دكتوراه في قسم علوم الكمبيوتر بجامعة ستانفورد ومقيمة سابقة في منظمة العفو الدولية في Microsoft Research، هذه النماذج تتدرب على مجموعات كبيرة من البيانات المتاحة للجمهور على الإنترنت".

 

على الرغم من أن ChatGPT وBard يستخدمان ما يسميانه الجزء "المفلتر" من بيانات Common Crawl، إلا أن الحجم الهائل للنموذج يجعل "من المستحيل على أي شخص البحث في البيانات وتعقيمها"، وفقًا لسريفاستافا.

 

 إما من خلال إهمالك، أو الممارسات الأمنية السيئة من قبل طرف ثالث يمكن أن تكون في زاوية بعيدة من الإنترنت في الوقت الحالي، على الرغم من أنه قد يكون من الصعب الوصول إلى المستخدم العادي، فمن الممكن أن تكون المعلومات قد تم كشطها في مجموعة تدريب، ويمكن أن تتقيأ من خلال برنامج الدردشة هذا، والروبوت الذي يبصق معلومات الاتصال الفعلية بشخص ما ليس بأي حال من الأحوال مصدر قلق نظري.

 

 نشر ديف لي، كاتب العمود في بلومبرج، على Twitter أنه عندما طلب شخص ما من ChatGPT الدردشة على منصة الرسائل المشفرة Signal، فقد قدم رقم هاتفه بالضبط.

 

 من المحتمل أن يكون هذا النوع من التفاعل حالة استثنائية، لكن المعلومات التي يمكن لنماذج التعلم هذه الوصول إليها لا تزال تستحق الدراسة، قال ديفيد هولزر، الزميل في منظمة الأمن بمعهد SANS، لموقع Engadget: "من غير المحتمل أن ترغب شركة OpenAI في جمع معلومات محددة مثل بيانات الرعاية الصحية وإسنادها إلى الأفراد

من أجل تدريب نماذجها، ولكن هل يمكن أن يكون هناك عن غير قصد؟ قطعًا.

 

 لم تستجب Open AI، الشركة التي تقف وراء ChatGPT، عندما تم سؤالها عن التدابير التي تتخذها لحماية خصوصية البيانات، أو كيف تتعامل مع معلومات التعريف الشخصية التي قد يتم كشطها في مجموعات التدريب الخاصة بها، لذلك تم عمل أفضل شيء تالي وسؤال ChatGPT نفسها، أخبر أنه تمت برمجته لاتباع المعايير الأخلاقية والقانونية التي تحمي خصوصية المستخدمين ومعلوماتهم الشخصية وأنه ليس لديه إمكانية الوصول إلى المعلومات الشخصية ما لم يتم توفيرها لي".

 

 أخبرت Google موقع Engadget أنها برمجت حواجز حماية مماثلة في Bard لمنع مشاركة معلومات التعريف الشخصية أثناء المحادثات.

 

 بشكل مفيد، طرح ChatGPT المتجه الرئيس الثاني الذي قد يشكل من خلاله الذكاء الاصطناعي التوليدي خطرًا على الخصوصية: استخدام البرنامج نفسه - إما عبر المعلومات التي يتم مشاركتها مباشرة في سجلات الدردشة، أو معلومات الجهاز والمستخدم التي تم التقاطها بواسطة الخدمة أثناء الاستخدام.

 

 تستشهد سياسة خصوصية OpenAI بعدة فئات من المعلومات القياسية التي تجمعها عن المستخدمين، والتي يمكن تحديدها، وعند بدء تشغيلها، تحذر ChatGPT من إمكانية مراجعة المحادثات بواسطة مدربي الذكاء الاصطناعي لتحسين الأنظمة.

 

 لا تمتلك شركة Bard من Google سياسة خصوصية قائمة بذاتها، بل تستخدم بدلًا من ذلك وثيقة الخصوصية الشاملة التي تشاركها منتجات Google الأخرى (والتي تصادف أنها واسعة للغاية) لا يلزم حفظ المحادثات مع Bard في حساب المستخدم على Google، وقالت الشركة لموقع Engadget إنه يمكن للمستخدمين حذف المحادثات عبر Google.