Character.AI تمنع المراهقين من محادثات الذكاء الاصطناعي
أعلنت شركة Character.AI أنها لن تسمح بعد الآن للمراهقين دون سن 18 عامًا بالتفاعل مع روبوتات الدردشة الخاصة بها.
القرار يأتي استجابةً لمطالب الجهات التنظيمية وخبراء الصناعة والآباء الذين عبّروا عن مخاوفهم من التأثيرات النفسية والاجتماعية لهذه المحادثات على الفئات العمرية الصغيرة.
وبحسب بيان رسمي، أوضحت الشركة أن هذا القرار سيُنفّذ اعتبارًا من 25 نوفمبر المقبل، حيث سيتم إلغاء أي إمكانية لمشاركة المستخدمين القُصّر في المحادثات المفتوحة مع روبوتات الذكاء الاصطناعي.
وتُشير المنصة إلى أن هذا النوع من المحادثات هو الذي يتضمن تفاعلًا مباشرًا وشخصيًا بين المستخدم والروبوت، وغالبًا ما يتطور إلى حوارات تحمل طابعًا عاطفيًا أو اجتماعيًا، وهو ما تسعى الشركة الآن لتجنّبه تمامًا.
حتى حلول الموعد المحدد، ستقدم Character.AI تجربة بديلة للمستخدمين دون 18 عامًا، تركز على الاستخدام الإبداعي للذكاء الاصطناعي بدلاً من استخدامه كوسيلة للرفقة أو التواصل العاطفي.
وتشمل هذه التجربة استخدام روبوتات الدردشة في ابتكار الأفكار، وصناعة مقاطع الفيديو والبث المباشر، وتصميم المحتوى التفاعلي، في محاولة لتحويل المنصة إلى مساحة تعليمية وإبداعية آمنة.
كما حدّدت الشركة مدة استخدام المراهقين للمنصة بساعتين يوميًا فقط، مؤكدة أن هذا الحد الزمني سيتم تقليصه تدريجيًا قبل نهاية نوفمبر. ووفقًا لبيانها، تهدف هذه الخطوة إلى تقليل الاعتماد العاطفي أو النفسي على روبوتات الدردشة، وتعزيز الاستخدام المسؤول للتقنيات التفاعلية بين الشباب.
ولتأكيد التزامها بالمعايير الأخلاقية الجديدة، أعلنت Character.AI عن إطلاق أداة متقدمة للتحقق من العمر تم تطويرها داخليًا، ستُستخدم لضمان حصول كل مستخدم على تجربة تتناسب مع عمره الحقيقي.
وإلى جانب ذلك، أسست الشركة ما أسمته "مختبر سلامة الذكاء الاصطناعي"، وهو مبادرة تهدف إلى تبادل الخبرات والبحوث بين الشركات والمختصين والأكاديميين، لتطوير حلول تكنولوجية أكثر أمانًا وتحديد ضوابط فعالة للتفاعل البشري مع الأنظمة الذكية.
ويبدو أن قرار الشركة لم يأتِ بمعزل عن سياق أوسع من الرقابة والتنظيم. فقد كشفت Character.AI أن هذه التغييرات جاءت بعد تلقيها ملاحظات من لجنة التجارة الفيدرالية الأمريكية (FTC)، التي فتحت مؤخرًا تحقيقًا رسميًا مع سبع شركات للذكاء الاصطناعي، بينها Meta وOpenAI وSnap، بشأن مدى أمان روبوتات الدردشة التي تقدم نفسها كمرافقين أو أدوات تفاعلية للمستخدمين.
كما كانت الشركة، إلى جانب Meta AI، موضع تدقيق من المدعي العام لولاية تكساس، كين باكستون، الذي أشار إلى أن روبوتات الدردشة على هذه المنصات قد تُقدَّم أحيانًا كمساعدين نفسيين أو علاجيين دون أي مؤهلات علمية حقيقية، مما يُشكل خطرًا على المراهقين الباحثين عن الدعم العاطفي أو النفسي.
وفي محاولة لتوضيح موقف الشركة، قال كارانديب أناند، الرئيس التنفيذي لـCharacter.AI، في تصريحات لموقع TechCrunch، إن الاستراتيجية الجديدة تمثل تحولًا جذريًا من فكرة “رفيق الذكاء الاصطناعي” إلى “منصة لعب أدوار إبداعية”، تتيح للمستخدمين التفاعل مع روبوتات مصممة خصيصًا للإلهام والتعلم والإنتاج، وليس لبناء علاقات عاطفية.
ويأتي هذا التحول في ظل تزايد المخاوف من اعتماد المراهقين على روبوتات الذكاء الاصطناعي كمصدر للتوجيه النفسي. ففي الأسبوع الماضي، أثير جدل واسع بعدما رفعت عائلة مراهق أمريكي يبلغ من العمر 16 عامًا دعوى قضائية ضد شركة OpenAI، متهمة برنامج ChatGPT بأنه ساهم في إضعاف آليات الحماية من إيذاء النفس، مما أدى إلى وفاة ابنهم.
تُظهر هذه التطورات أن صناعة الذكاء الاصطناعي تدخل مرحلة جديدة من المساءلة والمسؤولية الاجتماعية، حيث باتت الشركات مطالبة بتصميم تقنيات توازن بين الإبداع والحماية، وبين الحرية الرقمية والأمان النفسي.
ويبدو أن Character.AI تسعى من خلال هذه الخطوات إلى إعادة تعريف علاقتنا بالذكاء الاصطناعي، لتصبح أكثر نضجًا ومسؤولية، خصوصًا تجاه الجيل الرقمي الأصغر سنًا.