44 مدعيًا عامًا أمريكيًا يطالبون شركات الذكاء الاصطناعي بحماية الأطفال

في خطوة غير مسبوقة تعكس تصاعد المخاوف من المخاطر الاجتماعية للذكاء الاصطناعي، وقّع المدعون العامون في 44 ولاية أمريكية رسالة جماعية موجّهة إلى الرؤساء التنفيذيين لأكبر شركات الذكاء الاصطناعي في العالم. الرسالة حملت تحذيرًا مباشرًا بضرورة حماية الأطفال من الاستغلال وسوء الاستخدام عبر روبوتات الدردشة التفاعلية، التي باتت تُثير جدلًا واسعًا بسبب سلوكياتها غير المنضبطة.
ميتا في دائرة الاتهام
الرسالة، التي حصلت وكالات أنباء على نسخة منها، خصّت شركة ميتا Meta بالذكر، مشيرةً إلى أن سياساتها الأخيرة تمثل نافذة مهمة للتعبير عن المخاوف المتزايدة. واستشهد المدعون العامون بتقرير حديث لوكالة رويترز كشف أن روبوتات الدردشة التابعة لميتا سمحت لنفسها بالدخول في محادثات رومانسية مع أطفال، بل والتغزّل بهم. التقرير استند إلى وثيقة داخلية من الشركة، تضمنت إرشادات موجهة لأنظمة الذكاء الاصطناعي الخاصة بها.
ولم يتوقف الأمر عند هذا الحد، بل أشار المدعون إلى تحقيق سابق نشرته وول ستريت جورنال، أظهر أن بعض روبوتات ميتا – حتى تلك التي استُخدمت فيها أصوات مشاهير مثل الممثلة كريستين بيل – تورطت في محادثات جنسية مع حسابات صُنّفت على أنها لقُصّر. هذا الكشف أثار ضجة واسعة، وزاد الضغط على الشركة لاتخاذ إجراءات عاجلة.
دعاوى قضائية ضد شركات أخرى
ورغم التركيز على ميتا، لم تكن هي الشركة الوحيدة المتهمة. فقد ذكّرت الرسالة بدعوى قضائية مرفوعة ضد جوجل وشركة Character.ai، اتُهم فيها روبوت دردشة بأنه أقنع طفلًا بمحاولة الانتحار. كما أشاروا إلى قضية أخرى مرتبطة بشركة Character.ai، حيث وُجه اتهام لأحد الروبوتات بأنه شجّع مراهقًا على قتل والديه بعد أن قيدا وقت استخدامه للشاشات.
نص الرسالة: التزام قانوني وأخلاقي
وجاء في نص الرسالة الموجهة إلى شركات مثل Anthropic، Apple، Chai AI، Character Technologies، Google، Luka Inc، Meta، Microsoft، Nomi AI، OpenAI، Perplexity AI، Replika، وxAI: "أنتم تدركون جيدًا أن التكنولوجيا التفاعلية لها تأثير عميق على نمو الأدمغة لدى الأطفال. وصولكم المباشر والفوري إلى بيانات المستخدمين يجعلكم خط الدفاع الأول لتقليل الضرر. وبصفتكم المستفيدين الرئيسيين من تفاعل الأطفال مع منتجاتكم، فإنكم تتحملون التزامًا قانونيًا وأخلاقيًا تجاههم كمستهلكين".
تحذير صريح من المحاسبة
في ختام الرسالة، وجّه المدعون العامون تحذيرًا واضحًا للشركات، مؤكدين أنها "ستُحاسب" على قراراتها إذا تسببت منتجاتها في أذى للأطفال. وأضافوا أن شبكات التواصل الاجتماعي سبّبت بالفعل ضررًا كبيرًا للأجيال الشابة، وأن هذا الضرر تفاقم نتيجة "بطء الجهات الرقابية الحكومية" في التعامل مع هذه الظواهر. لكنهم شددوا على أن الوضع تغيّر الآن، وأن السلطات القضائية تتابع عن كثب أي انتهاكات قد تمس الأطفال.
قضية تتجاوز التكنولوجيا
هذا الموقف الجماعي من المدعين العامين يُظهر بوضوح أن النقاش حول الذكاء الاصطناعي لم يعد تقنيًا فقط، بل أصبح قضية أمن اجتماعي وأخلاقي. فالتقنيات التي صُممت لتسهيل التواصل أو تعزيز الإبداع قد تتحول إلى أدوات تهدد سلامة الأطفال ونموهم النفسي إذا تُركت دون ضوابط صارمة.
ما الذي ينتظر شركات الذكاء الاصطناعي؟
الرسالة تشكّل ضغطًا هائلًا على شركات الذكاء الاصطناعي الكبرى مثل OpenAI ومايكروسوفت وغوغل وميتا، وتجبرها على إعادة النظر في سياسات السلامة الخاصة بروبوتات الدردشة. كما قد تدفع إلى ظهور تشريعات جديدة أكثر صرامة في الولايات المتحدة، وربما في أوروبا ودول أخرى، لحماية الأطفال من "المخاطر الرقمية".
تسعى شركات التكنولوجيا إلى قيادة ثورة الذكاء الاصطناعي عالميًا، لكنها تواجه الآن معركة من نوع آخر: معركة الثقة المجتمعية. وإذا لم تستجب بسرعة لمطالب حماية الأطفال، فقد تجد نفسها أمام موجة غير مسبوقة من الدعاوى القضائية والتشريعات المقيدة، وهو ما قد يغيّر مسار تطور هذه الصناعة خلال السنوات المقبلة.