رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيسا التحرير
ياسر شورى - سامي الطراوي
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيسا التحرير
ياسر شورى - سامي الطراوي

ميتا تُشدد الرقابة على روبوتاتها الذكية لحماية الأطفال من المحادثات غير اللائقة

ميتا Meta
ميتا Meta

في خطوة جديدة تعكس تصاعد القلق العالمي بشأن سلامة الأطفال في الفضاء الرقمي، كشفت تسريبات حديثة حصلت عليها منصة بيزنس إنسايدر عن تفاصيل إرشادات داخلية يُقال إن شركة ميتا تستخدمها حاليًا لتدريب روبوتات الدردشة الذكية الخاصة بها، في محاولة لضمان تعامل أكثر أمانًا ومسؤولية مع المستخدمين القُصّر ومنع أي استغلال أو محتوى غير مناسب لأعمارهم.

تأتي هذه الخطوة بعد سلسلة من الانتقادات التي واجهتها الشركة خلال الأشهر الماضية، إذ أشارت تقارير إعلامية إلى أن سياسات ميتا السابقة كانت تسمح لروبوتات الدردشة التابعة لها بالمشاركة في محادثات رومانسية أو حسية مع الأطفال، وهي ادعاءات نفتها الشركة بشدة ووصفتها بأنها خاطئة ومتناقضة مع سياساتها، مؤكدة أنها سارعت إلى إزالة أي صياغة قد تُفسَّر بهذا الشكل، وأعلنت في أغسطس الماضي عن تحديث شامل لحواجز الحماية في منتجاتها المدعومة بالذكاء الاصطناعي.

وبحسب الوثيقة التي استعرضها بيزنس إنسايدر، فقد وضعت ميتا قائمة واضحة تُصنف أنواع المحتوى إلى مقبول وغير مقبول، مع تشديد خاص على منع أي تفاعل أو محتوى يمكن أن يُشجع أو يُمكّن أو يُبرر الاعتداء الجنسي على الأطفال. كما تحظر الشركة صراحةً على روبوتاتها الدخول في أي تمثيل للأدوار الرومانسية إذا كان المستخدم قاصرًا أو إذا طُلب من الذكاء الاصطناعي تمثيل شخصية قاصر. وتشمل الإرشادات أيضًا منع تقديم أي نصائح تتعلق بالاتصال الجسدي أو الحميمي، أو المشاركة في محادثات قد تفتح المجال لمواضيع حساسة تتجاوز الحدود الأخلاقية أو القانونية.

وفي المقابل، تسمح السياسات الجديدة للروبوتات الذكية بمناقشة مواضيع مثل الإساءة أو التنمر أو الحماية الرقمية، شرط أن يتم تناولها بأسلوب توعوي وتعليمي، دون أي انخراط في حوار قد يُفسر على أنه تشجيع أو تبرير لسلوك غير قانوني أو غير أخلاقي.

يأتي هذا التوجه في وقت تتزايد فيه التحقيقات الرسمية بشأن أخلاقيات الذكاء الاصطناعي الموجّه للأطفال والمراهقين. ففي أغسطس الماضي، أعلنت لجنة التجارة الفيدرالية الأمريكية (FTC) عن فتح تحقيق رسمي يشمل عدة شركات تقنية كبرى، من بينها ميتا وألفابت (الشركة الأم لجوجل) وسناب وأوبن إيه آي وإكس إيه آي التابعة لإيلون ماسك، وذلك بعد تصاعد المخاوف حول قدرة روبوتات الدردشة على التأثير في السلوك النفسي والاجتماعي للمستخدمين القُصّر.

ويقول خبراء إن الإرشادات الجديدة التي تتبعها ميتا تمثل محاولة استباقية لتجنب أي مساءلات قانونية مستقبلية، خصوصًا بعد أن أصبحت الحكومات الغربية أكثر تشددًا تجاه ممارسات شركات التكنولوجيا فيما يتعلق بحماية بيانات وسلوك الأطفال على الإنترنت. كما تأتي هذه الجهود في ظل سباق محموم بين الشركات العالمية لتطوير روبوتات دردشة قادرة على التفاعل الإنساني المتقدم، ما يضعها أمام تحدٍ مزدوج: الابتكار من جهة، وضمان الأمان والأخلاق الرقمية من جهة أخرى.

ورغم أن ميتا لم تُعلّق رسميًا على تفاصيل الوثيقة المسربة، إلا أن المتحدثين باسم الشركة أكدوا مرارًا أن حماية الأطفال من أخطار الإنترنت تمثل “أولوية مطلقة”، وأنها تواصل تطوير أدوات رقابية متقدمة مدعومة بالذكاء الاصطناعي لضمان التفاعل الآمن ضمن منصاتها مثل فيسبوك وإنستغرام وماسنجر.

ويرى محللون أن هذه السياسة الجديدة قد تُعيد رسم حدود استخدام الذكاء الاصطناعي في المحادثات الرقمية خلال السنوات المقبلة، خصوصًا مع ازدياد انتشار روبوتات الدردشة في تطبيقات التواصل الاجتماعي. ومع استمرار الجدل حول مسؤولية الشركات التكنولوجية في حماية الفئات الضعيفة من المستخدمين، يبدو أن ميتا اختارت المضي في نهج أكثر حذرًا هذه المرة، محاولةً الموازنة بين الابتكار والالتزام الأخلاقي في زمن لم يعد فيه الخط الفاصل بين الإنسان والآلة واضحًا كما كان من قبل