رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين
رئيس حزب الوفد
د.عبد السند يمامة
رئيس مجلس الإدارة
د.أيمن محسب
رئيس التحرير
د. وجدى زين الدين

مايكروسوفت تسكت مهندس أثار مخاوف بشأن DALL-E 3

بوابة الوفد الإلكترونية

يزعم أحد مديري Microsoft أن DALL-E 3 من OpenAI به ثغرات أمنية قد تسمح للمستخدمين بإنشاء صور عنيفة أو صريحة (على غرار تلك التي استهدفت مؤخرًا Taylor Swift). وأفاد موقع GeekWire يوم الثلاثاء أن الفريق القانوني للشركة منعت محاولات قائد الهندسة في مايكروسوفت شين جونز لتنبيه الجمهور حول هذا الاستغلال. ينقل المُبلغ عن المخالفات، الذي وصف نفسه بنفسه، رسالته الآن إلى الكابيتول هيل.

"لقد توصلت إلى استنتاج مفاده أن DALL · E 3 يشكل خطرًا على السلامة العامة ويجب إزالته من الاستخدام العام حتى تتمكن OpenAI من معالجة المخاطر المرتبطة بهذا النموذج،" كتب جونز إلى عضوي مجلس الشيوخ الأمريكي باتي موراي (ديمقراطية من غرب واشنطن) وماريا كانتويل ( D-WA)، والنائب آدم سميث (D-WA المنطقة التاسعة)، والمدعي العام لولاية واشنطن بوب فيرجسون (د). نشرت GeekWire رسالة جونز الكاملة.

يدعي جونز أنه اكتشف ثغرة تسمح له بتجاوز حواجز الحماية الأمنية للعبة DALL-E 3 في أوائل ديسمبر. ويقول إنه أبلغ رؤسائه في مايكروسوفت بالمشكلة، والذين طلبوا منه "الإبلاغ شخصيًا عن المشكلة مباشرة إلى OpenAI". وبعد القيام بذلك، ادعى أنه علم أن الخلل يمكن أن يسمح بتوليد "صور ضارة عنيفة ومزعجة".

ثم حاول جونز نشر قضيته في منشور على LinkedIn. كتب جونز: "في صباح يوم 14 ديسمبر 2023، نشرت علنًا رسالة على LinkedIn إلى مجلس إدارة OpenAI غير الربحي لحثهم على تعليق توفر DALL · E 3). "نظرًا لأن Microsoft هي مراقب مجلس الإدارة في OpenAI وقد قمت سابقًا بمشاركة مخاوفي مع فريق القيادة الخاص بي، فقد أبلغت Microsoft على الفور بالرسالة التي نشرتها."
ويُزعم أن رد مايكروسوفت كان المطالبة بإزالة منشوره. وكتب في رسالته: "بعد وقت قصير من الكشف عن الرسالة لفريق قيادتي، اتصل بي مديري وأخبرني أن الإدارة القانونية في مايكروسوفت طالبتني بحذف المنشور". "لقد أخبرني أن القسم القانوني في Microsoft سيتابع مع مبرراته المحددة لطلب الإزالة عبر البريد الإلكتروني قريبًا جدًا، وأنني بحاجة إلى حذفه على الفور دون انتظار البريد الإلكتروني من القسم القانوني".

امتثل جونز، لكنه يقول إن الرد الأكثر دقة من فريق مايكروسوفت القانوني لم يصل قط. وكتب: “لم أتلق أي تفسير أو تبرير منهم”. ويقول إن المحاولات الإضافية لمعرفة المزيد من الإدارة القانونية للشركة تم تجاهلها. وكتب: "لم يستجب لي القسم القانوني في مايكروسوفت بعد أو يتواصل معي مباشرة".

كتب متحدث باسم OpenAI إلى Engadget في رسالة بريد إلكتروني: "لقد حققنا على الفور في تقرير موظف Microsoft عندما تلقيناه في الأول من ديسمبر وأكدنا أن التقنية التي شاركها لا تتجاوز أنظمة السلامة لدينا. السلامة هي أولويتنا ونحن نتبع نهجًا متعدد الجوانب. في نموذج DALL-E 3 الأساسي، عملنا على تصفية المحتوى الأكثر وضوحًا من بيانات التدريب الخاصة به بما في ذلك المحتوى الجنسي والعنيف المصور، وقمنا بتطوير مصنفات صور قوية توجه النموذج بعيدًا عن إنشاء صور ضارة.

وتابع المتحدث باسم OpenAI: "لقد طبقنا أيضًا ضمانات إضافية لمنتجاتنا، ChatGPT وDALL-E API - بما في ذلك رفض الطلبات التي تطلب شخصية عامة بالاسم". "نحن نحدد ونرفض الرسائل التي تنتهك سياساتنا ونقوم بتصفية جميع الصور التي تم إنشاؤها قبل عرضها للمستخدم. نحن نستخدم فريقًا أحمر من الخبراء الخارجيين لاختبار سوء الاستخدام وتعزيز ضماناتنا."

وفي الوقت نفسه، كتب متحدث باسم Microsoft لموقع Engadget: "نحن ملتزمون بمعالجة جميع المخاوف التي لدى الموظفين وفقًا لسياسات شركتنا، ونقدر جهود الموظف في دراسة واختبار أحدث التقنيات لدينا لتعزيز سلامتها. عندما يتعلق الأمر بتجاوزات السلامة أو المخاوف التي قد يكون لها تأثير محتمل على خدماتنا أو شركائنا، فقد أنشأنا قنوات إبلاغ داخلية قوية للتحقيق في أي مشكلات وعلاجها بشكل صحيح، والتي أوصينا بأن يستخدمها الموظف حتى نتمكن من التحقق من صحتها واختبارها بشكل مناسب مخاوفه قبل تصعيدها علناً”.

"نظرًا لأن تقريره كان يتعلق بمنتج OpenAI، فقد شجعناه على تقديم التقرير من خلال قنوات إعداد التقارير القياسية الخاصة بـ OpenAI، وقد شارك أحد كبار قادة المنتجات لدينا آراء الموظف كتب المتحدث باسم Microsoft: "لقد تلقينا تعليقات من OpenAI، الذي قام بالتحقيق في الأمر على الفور". "وفي الوقت نفسه، قامت فرقنا بالتحقيق والتأكد من أن التقنيات التي تم الإبلاغ عنها لم تتجاوز مرشحات الأمان الخاصة بنا في أي من حلول توليد الصور التي تعمل بالذكاء الاصطناعي لدينا. تعد تعليقات الموظفين جزءًا مهمًا من ثقافتنا، ونحن نتواصل مع هذا الزميل لمعالجة أي مخاوف متبقية قد تكون لديه.

وأضافت مايكروسوفت أن مكتب الذكاء الاصطناعي المسؤول التابع لها أنشأ أداة تقارير داخلية للموظفين للإبلاغ عن المخاوف بشأن نماذج الذكاء الاصطناعي وتصعيدها.

يقول المبلغ عن المخالفات إن الصور الإباحية العميقة لتايلور سويفت والتي تم تداولها على X الأسبوع الماضي هي أحد الأمثلة على ما يمكن أن تنتجه نقاط الضعف المماثلة إذا تركت دون رادع. وأفاد موقع 404 Media يوم الاثنين أن Microsoft Designer، الذي يستخدم DALL-E 3 كواجهة خلفية، كان جزءًا من مجموعة أدوات Deepfaker التي صنعت الفيديو. يدعي المنشور أن Microsoft، بعد إخطارها، قامت بتصحيح هذه الثغرة المحددة.

وخلص جونز إلى أن "مايكروسوفت كانت على علم بنقاط الضعف هذه واحتمالية إساءة الاستخدام". ليس من الواضح ما إذا كانت الثغرات المستخدمة في صنع Swift Deepfake مرتبطة بشكل مباشر بتلك التي أبلغ عنها جونز في ديسمبر.

ويحث جونز ممثليه في واشنطن العاصمة على اتخاذ الإجراءات اللازمة. ويقترح أن تنشئ حكومة الولايات المتحدة نظامًا للإبلاغ عن نقاط الضعف المحددة في الذكاء الاصطناعي وتتبعها - مع حماية الموظفين مثله الذين يتحدثون علنًا. وكتب: "نحن بحاجة إلى مساءلة الشركات عن سلامة منتجاتها ومسؤوليتها عن الكشف عن المخاطر المعروفة للجمهور". "لا ينبغي تخويف الموظفين المعنيين، مثلي، لكي يظلوا صامتين".