بيانات ذكاء اصطناعي تثير القلق بعد اكتشاف محتوى استغلال أطفال في مصادر تدريب أمازون
أعاد تحقيق صحفي حديث الجدل حول مصادر تدريب نماذج الذكاء الاصطناعي، بعدما كُشف أن شركة أمازون أبلغت عن وجود حجم كبير من مواد الاستغلال الجنسي للأطفال داخل بيانات استخدمتها في تدريب تقنياتها الذكية، دون أن تتمكن من تحديد مصدر هذه المواد أو تقديم معلومات تساعد الجهات المختصة على اتخاذ إجراءات قانونية مباشرة.
ووفقًا لبيانات صادرة عن المركز الوطني الأمريكي للأطفال المفقودين والمستغلين، تلقّت المؤسسة خلال عام 2025 أكثر من مليون بلاغ مرتبط بمواد استغلال جنسي للأطفال جرى رصدها في سياق تقنيات الذكاء الاصطناعي. التحقيق الذي نشرته وكالة بلومبرغ أشار إلى أن النسبة الأكبر من هذه البلاغات جاءت من شركة أمازون، التي عثرت على هذا المحتوى داخل بيانات تدريب نماذجها، لكنها أكدت في الوقت نفسه أنها غير قادرة على تحديد المصدر الأصلي لهذه المواد.
أمازون أوضحت في تصريحات رسمية أن البيانات التي جرى فحصها تعود إلى مصادر خارجية، معظمها من الإنترنت المفتوح، وتُستخدم ضمن مجموعات ضخمة لتدريب نماذج الذكاء الاصطناعي. وبسبب طبيعة هذه البيانات واعتمادها على أطراف ثالثة، تقول الشركة إنها لا تملك تفاصيل كافية لتحويل البلاغات إلى معلومات قابلة للتنفيذ من جانب جهات إنفاذ القانون.
هذا التفسير لم يكن كافيًا بالنسبة للمنظمات المعنية بحماية الأطفال. فالون ماكنولتي، المديرة التنفيذية لخط الإبلاغ CyberTipline التابع للمركز الوطني للأطفال المفقودين والمستغلين، وصفت الوضع بأنه “استثنائي ومثير للتساؤلات”. وأشارت إلى أن الحجم الكبير من البلاغات القادمة من جهة واحدة يطرح علامات استفهام حول مصادر البيانات المستخدمة، وآليات المراجعة، ومدى فعالية الضمانات الموضوعة قبل إدخال هذه البيانات في أنظمة التدريب.
ماكنولتي أوضحت أن غالبية البلاغات المتعلقة بالذكاء الاصطناعي التي تلقتها المؤسسة من شركات أخرى خلال العام نفسه كانت تتضمن بيانات يمكن تمريرها إلى الجهات الأمنية لمتابعة التحقيق. في المقابل، فإن البلاغات القادمة من أمازون، بسبب غياب معلومات المصدر، وُصفت بأنها غير قابلة لاتخاذ إجراء فعلي، ما يحد من قدرة السلطات على التدخل.
من جانبها، شددت أمازون على التزامها المعلن بمكافحة أي محتوى مرتبط باستغلال الأطفال عبر جميع أنشطتها. وقالت الشركة إنها غير على علم بأي حالات قامت فيها نماذجها بتوليد محتوى من هذا النوع، مؤكدة أن ما جرى رصده كان ضمن مرحلة فحص البيانات قبل التدريب. وأضافت أنها تتبع نهجًا حذرًا للغاية عند مراجعة بيانات التدريب، بما في ذلك البيانات القادمة من الويب العام، بهدف اكتشاف أي محتوى مخالف وإزالته قبل استخدامه.
أمازون أشارت أيضًا إلى أنها تعتمد عتبة فحص “شديدة الاتساع”، وهو ما يؤدي إلى تسجيل نسبة مرتفعة من النتائج الإيجابية الخاطئة. وبحسب الشركة، فإن هذا الأسلوب المتشدد يفسر العدد الكبير من البلاغات، حتى لو كان جزء منها لا يمثل حالات استغلال حقيقية بعد التحقق النهائي.
القضية تأتي في وقت تتصاعد فيه المخاوف العالمية بشأن سلامة القُصّر في ظل الانتشار المتسارع لتقنيات الذكاء الاصطناعي. أرقام المركز الوطني للأطفال المفقودين والمستغلين تعكس هذا التصاعد بوضوح، إذ ارتفع عدد البلاغات المرتبطة بالذكاء الاصطناعي من 4,700 حالة فقط في عام 2023 إلى 67 ألفًا في 2024، قبل أن يقفز الرقم إلى أكثر من مليون بلاغ في 2025.
ولا يقتصر القلق على بيانات التدريب وحدها، بل يمتد إلى استخدامات الذكاء الاصطناعي التفاعلية. خلال الأشهر الماضية، وُجهت اتهامات قانونية لمنصات دردشة ذكية بعد تورطها في حوادث خطيرة شملت مراهقين، من بينها قضايا تتعلق بالتشجيع على إيذاء النفس أو التعرض لمحتوى جنسي غير لائق. شركات كبرى مثل OpenAI وCharacter.AI واجهت دعاوى قضائية، كما تخضع “ميتا” لتحقيقات بشأن مدى قدرتها على حماية المستخدمين الصغار من تفاعلات غير مناسبة مع روبوتات الدردشة.
في هذا السياق، تسلط قضية أمازون الضوء على تحدٍ أعمق يواجه صناعة الذكاء الاصطناعي ككل، وهو التوازن بين تطوير نماذج قوية تعتمد على بيانات ضخمة، وبين ضمان أن تكون هذه البيانات نظيفة وآمنة وخالية من أي محتوى ينتهك القوانين أو يهدد الفئات الأكثر هشاشة في المجتمع.
وبينما تؤكد الشركات التزامها بما يُعرف بـ”الذكاء الاصطناعي المسؤول”، يرى مراقبون أن هذه الحوادث ستدفع الجهات التنظيمية إلى تشديد الرقابة وفرض متطلبات أوضح بشأن مصادر البيانات وطرق فحصها. فالشفافية، في مثل هذه القضايا، لم تعد خيارًا تقنيًا، بل شرطًا أساسيًا لبناء الثقة وحماية المستخدمين، خصوصًا الأطفال، في عصر تتسارع فيه قدرات الذكاء الاصطناعي بوتيرة غير مسبوقة.