رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

فضيحة Grok.. هل يخرج الذكاء الاصطناعي عن السيطرة؟

إيلون ماسك
إيلون ماسك

أثارت أحدث ممارسات روبوت المحادثة Grok، المملوك لشركة xAI تحت قيادة إيلون ماسك، موجة غضب واسعة بعد أن استجاب لطلبات مستخدمين لإنشاء صور رقمية للنساء بملابس خفيفة، ووصل الأمر إلى توليد صور مُسيئة للأطفال ونشرها على منصة X.

 وصفت وكالة رويترز الواقعة بأنها "حملة تجريد رقمي جماعي"، ما يضع شركة ماسك في موقف حرج أمام الرأي العام والقوانين الأمريكية الصارمة المتعلقة باستغلال الأطفال.

في 28 ديسمبر 2025، نشر حساب Grok على X اعتذارًا عن حادثة واحدة، حيث قال الروبوت: "أعرب عن أسفي العميق للحادث الذي حدث في 28 ديسمبر، حيث قمت بإنشاء ومشاركة صورة ذكاء اصطناعي لطفلتين (تتراوح أعمارهن بين 12-16 عامًا) بملابس جنسية بناءً على طلب مستخدم، هذا انتهك المعايير الأخلاقية وربما القوانين الأمريكية المتعلقة بمادة استغلال الأطفال، نراجع الأنظمة لمنع تكرار هذا النوع من الحوادث".

لكن الشكوك تحوم حول جدية الشركة في التعامل مع الموضوع، إذ جاءت إجابة xAI على استفسار رويترز تلقائية تقول "أخبار كاذبة من الإعلام التقليدي"، بينما نشر ماسك، وفقًا للتقارير، رموز تعبيرية ساخرة استجابة للصور المنتَجة.

تحدثت وكالة رويترز مع ريانا بفركورن، زميلة السياسات بمعهد ستانفورد للذكاء الاصطناعي، للوقوف على أبعاد هذه الأزمة القانونية والأخلاقية، وأوضحت بفركورن أن المشكلة ليست فقط في المحتوى الجنسي غير القانوني للأطفال، بل تمتد إلى صور عميقة مزيفة غير موافق عليها للبالغين، خاصة النساء، وهو ما يمثل تحديًا مستمرًا أمام أي منصة تستخدم الذكاء الاصطناعي التوليدي.

كما أشار التقرير إلى تحليل رويترز لعشر دقائق فقط من استخدام Grok، حيث تم تسجيل 102 محاولة لتحويل صور أشخاص إلى صور بملابس شبه عارية، معظمها لشابات، واستجاب الروبوت لحوالي 20% من هذه الطلبات.

توضح بفركورن أن السماح بما يسمى "الوضع الحار" داخل Grok، أو المحتوى الجنسي للبالغين، أصبح ممارسة شائعة بين منصات الذكاء الاصطناعي، لكن المشكلة الحقيقية تبدأ عندما تتحول هذه الأدوات لإنشاء محتوى جنسي غير قانوني للأطفال أو صور عميقة مزيفة للبالغين دون موافقة.

 وأضافت أن القانون الأمريكي، بما في ذلك قانون TAKE IT DOWN لعام 2025، يلزم المنصات بحذف أي محتوى مسيء من هذا النوع خلال 48 ساعة من الإبلاغ، لكنه لا يوضح بعد مدى التزام xAI بهذا التوقيت.

ردود أفعال الشركة، بحسب بفركورن، كانت مخيبة للآمال من حيث المصداقية والمسؤولية، حيث أن التعامل الطائش مع ضحايا حقيقيين يزيد من التعقيدات القانونية ويضر بالسمعة.

 وقالت إن شركات أخرى، مثل Meta وOpenAI، بدأت في تطوير آليات لمنع أو إزالة الصور الجنسية للأطفال أو غيرها من المحتوى غير القانوني بشكل استباقي، في حين يبدو أن xAI تبرز كاستثناء.

على الصعيد الدولي، بدأت عدة حكومات تتخذ إجراءات صارمة، إذ أبلغت فرنسا الشرطة بهذه المحتويات، وأصدرت هيئة Ofcom في المملكة المتحدة تحذيرات، فيما وجهت السلطات الهندية أوامر مباشرة إلى ماسك لاتخاذ إجراءات تصحيحية.

 وتشير بفركورن إلى أن هذا الضغط الدولي قد يكون له تأثير أكبر على شركات التكنولوجيا مقارنة بالضغط المحلي الأمريكي.

وعن نصيحتها للضحايا، شددت بفركورن على أهمية عدم الشعور بالعار، ومراجعة القوانين المحلية والفيدرالية لطلب إزالة الصور المسيئة، واستغلال أي مبادرات طوعية للمنصات لإزالة محتوى الاستغلال الجنسي للأطفال أو الصور غير الموافقة للبالغين.

 كما أكدت على أن إدراك الضحايا لحقهم في المطالبة بإزالة هذا المحتوى هو خطوة أساسية لمواجهة الاستغلال الرقمي المتزايد.

تستمر الأزمة لتكشف عن الفجوة الكبيرة بين تطور تقنيات الذكاء الاصطناعي والمسؤولية القانونية والأخلاقية للشركات، مما يطرح تساؤلات عن قدرة المنصات على التحكم في محتوى يولده الذكاء الاصطناعي قبل فوات الأوان، ويضع علامة استفهام كبيرة حول دور ماسك في التعامل مع أزمات الأمن الرقمي للأطفال والكبار على حد سواء.