Roblox وDiscord وOpenAI وGoogle يأسسون مجموعة جديدة لسلامة الأطفال
أطلقت Roblox وDiscord وOpenAI وGoogle منظمة غير ربحية تسمى ROOST، أو Robust Open Online Safety Tools، والتي تأمل في "بناء بنية أساسية للسلامة قابلة للتطوير وقابلة للتشغيل المتبادل ومناسبة لعصر الذكاء الاصطناعي".
ما هي منظمة ROOST؟
تخطط المنظمة لتوفير أدوات أمان مجانية مفتوحة المصدر للمنظمات العامة والخاصة لاستخدامها على منصاتها الخاصة، مع التركيز بشكل خاص على سلامة الأطفال في البداية.
يشير البيان الصحفي الذي أعلن عن ROOST على وجه التحديد إلى خطط لتقديم “أدوات للكشف عن مواد الاعتداء الجنسي على الأطفال ومراجعتها والإبلاغ عنها”، توفر الشركات الشريكة التمويل لهذه الأدوات، والخبرة الفنية لبنائها أيضًا.
تتمثل النظرية التشغيلية لـ ROOST في أن الوصول إلى الذكاء الاصطناعي التوليدي يغير المشهد عبر الإنترنت بسرعة، مما يجعل الحاجة إلى "بنية أساسية للسلامة موثوقة وسهلة الوصول" أكثر إلحاحًا. وبدلاً من توقع أن تقوم شركة أو منظمة أصغر بإنشاء أدوات السلامة الخاصة بها من الصفر، تريد ROOST توفيرها مجانًا.
كانت سلامة الأطفال على الإنترنت هي القضية الحالية منذ أن بدأ قانون حماية خصوصية الأطفال والمراهقين على الإنترنت (COPPA) وقانون سلامة الأطفال على الإنترنت (KOSA) في شق طريقهما عبر الكونجرس، على الرغم من فشل كليهما في المرور في مجلس النواب.
كما تعهدت بعض الشركات المشاركة في ROOST، وخاصة Google وOpenAI، بالفعل بوقف استخدام أدوات الذكاء الاصطناعي لتوليد مواد اعتداء جنسي على الأطفال.
تعد قضية سلامة الأطفال أكثر إلحاحًا بالنسبة لشركة Roblox. اعتبارًا من عام 2020، يلعب ثلثا جميع الأطفال في الولايات المتحدة الذين تتراوح أعمارهم بين 9 و12 عامًا لعبة Roblox، وقد كافحت المنصة تاريخيًا لمعالجة سلامة الأطفال.
ذكرت بلومبرج بيزنس ويك أن الشركة واجهت "مشكلة متحرشين بالأطفال" في عام 2024، مما دفع إلى تغييرات متعددة في السياسة وقيود جديدة حول الرسائل المباشرة للأطفال.
لن تجعل ROOST كل هذه المشاكل تختفي، لكنها ستجعل التعامل معها أسهل لأي منظمة أو شركة أخرى تجد نفسها في موقف Roblox.
تابعوا آخر أخبار بوابة الوفد الإلكترونية عبر نبض