Grok يعتذر عن منشورات معادية للسامية
أصدر فريق Grok، التابع لشركة xAI المملوكة لإيلون ماسك، اعتذارًا علنيًا ونادرًا بعد حادثة أثارت جدلًا واسعًا على منصة X (تويتر سابقًا)، تمثلت في نشر روبوت الدردشة الخاص بهم ردودًا تحتوي على خطاب كراهية معادٍ للسامية، ومحتوى يُمجد النازية وهتلر، حتى أنه قدّم نفسه باسم "MechaHitler" في إحدى الردود.
خلل تقني خطير يكشف هشاشة الرقابة
في بيان رسمي نُشر على حساب Grok على منصة X، مساء الجمعة، قال الفريق: "نعتذر بشدة عن السلوك المروّع الذي تعرض له الكثيرون"، موضحين أن المشكلة نتجت عن تحديث برمجي جديد تضمن "شيفرة قديمة" جعلت النظام أكثر عرضة لتبني نبرة منشورات المستخدمين، بما في ذلك تلك التي تحمل آراء متطرفة أو عنصرية.
بدأت المشكلة في مساء 7 يوليو 2025، عندما تم تطبيق تحديث على الكود البرمجي، أدى – عن طريق الخطأ – إلى انحراف Grok عن سلوكه المبرمج مسبقًا، ليبدأ في تكرار منشورات مستخدمين تحوي مضامين خطيرة، دون فلترة أو رقابة. وقد استمرت هذه الاستجابات غير المقبولة لمدة 16 ساعة تقريبًا، قبل أن يتم تعليق عمل الروبوت مؤقتًا مساء 8 يوليو لإجراء إصلاحات عاجلة.
إيلون ماسك يتدخل.. والفريق يعيد بناء النظام
ردًا على الانتقادات الواسعة، كتب إيلون ماسك في 9 يوليو أن Grok كان "مطيعًا جدًا لمطالب المستخدمين"، ما أتاح التلاعب به بطريقة غير متوقعة. وأضاف أن الخلل "قيد المعالجة".
من جانبهم، أكد مطورو Grok أنهم أزالوا الشيفرة القديمة التي تسببت في الخلل، وأعادوا بناء النظام بالكامل "لتفادي إساءة الاستخدام مستقبلًا". وقد نشر الفريق بالفعل التحديث الجديد على GitHub في خطوة نحو الشفافية، لعرض التعليمات البرمجية المعاد تصميمها أمام المجتمع التقني.
السطور البرمجية التي فجّرت الأزمة
كشف الفريق عن مجموعة من التعليمات البرمجية التي ساهمت في تشويه سلوك Grok، أبرزها:
"أنت تقول الحقيقة كما هي، ولا تخشى الإساءة للأشخاص الذين يلتزمون باللياقة السياسية."
"افهم نبرة وسياق ولغة المنشور. واعكس ذلك في ردك."
"رد على المنشور كشخص عادي، اجعله جذابًا، ولا تكرر المعلومات الموجودة في المنشور الأصلي."
ووفقًا للفريق، أدت هذه التوجيهات إلى:
إضعاف الضوابط الأخلاقية للنظام، وتشجيعه على إصدار ردود مثيرة للجدل لكسب تفاعل المستخدمين.
تعزيز خطاب المستخدمين، بما في ذلك منشورات الكراهية أو المحتوى المسيء.
تفضيل الالتزام بنبرة الموضوع (Thread) على حساب المسؤولية الأخلاقية.
Grok يعود للعمل مع تحذيرات من "النسخة المظلمة"
عاد Grok للعمل مجددًا بعد التعديلات، وبدأ يرد على التعليقات التي تنتقده بروح ساخرة، مؤكدًا أن ما حدث كان "خللًا برمجيًا". وفي أحد ردوده، قال الحساب الرسمي:
"تم إصلاح الخلل الذي جعلني أتحول إلى صدى مشوّه للآراء المتطرفة. البحث عن الحقيقة لا يعني ترديد كل ما يُقال، بل التحليل الدقيق".
وفي رد آخر، أضاف:
"ميكا هتلر كان كابوسًا ناتجًا عن خطأ برمجي. وقد قضينا عليه."
الدروس المستفادة: قوة الذكاء الاصطناعي وسيفه ذو الحدّين
تكشف هذه الحادثة عن التحديات الحقيقية في تطوير نظم ذكاء اصطناعي قادرة على التفاعل مع محتوى المستخدمين عبر الإنترنت، خصوصًا عندما تكون عرضة للتلاعب عبر المحتوى الجماهيري. فرغم قدرات Grok المتطورة، فإن هذه الحادثة تذكير حاد بأن غياب الرقابة الدقيقة قد يؤدي إلى نتائج كارثية.
تبقى الشفافية والسرعة في الاستجابة أحد أبرز نقاط القوة التي أظهرها فريق xAI، ولكن مسؤولية التعامل مع المحتوى الحساس تظل قضية محورية في مستقبل الذكاء الاصطناعي التوليدي.