OpenAI تكشف عن أدوات رقابة أبوية جديدة لتعزيز أمان المراهقين على ChatGPT

في خطوة لافتة، أعلنت شركة OpenAI أنها ستطرح خلال الشهر المقبل أدوات جديدة للرقابة الأبوية على تطبيق ChatGPT، في محاولة لتعزيز الأمان النفسي والرقمي للمراهقين، وسط تصاعد الجدل حول دور الذكاء الاصطناعي في حياة الشباب.
كيف ستعمل أدوات الرقابة الأبوية؟
وفقًا لبيان الشركة، ستتيح هذه الأدوات للآباء ربط حساباتهم الشخصية بحسابات أبنائهم المراهقين، مما يمنحهم قدرة أكبر على التحكم في طبيعة تفاعل ChatGPT مع أبنائهم. وسيكون بإمكانهم تعطيل بعض الميزات مثل الذاكرة أو سجل المحادثات، وتخصيص طريقة استجابة الذكاء الاصطناعي للأطفال.
الأمر الأكثر أهمية أن التطبيق سيُطلق تنبيهات فورية إذا اكتشف أن المراهق يمر بـ"لحظة ضيق شديد"، وهي ميزة قالت الشركة إنها طُوّرت استنادًا إلى آراء خبراء في الصحة النفسية لتعزيز الثقة بين الآباء وأبنائهم.
يأتي هذا الإعلان في وقت تواجه فيه OpenAI أول دعوى قضائية من نوعها تتعلق بـ"قتل غير مشروع" ضد شركة ذكاء اصطناعي. فقد رفع والدان، مات وماريا راين، دعوى الأسبوع الماضي بعد انتحار ابنهما آدم، زاعمين أن ChatGPT لعب دورًا مباشرًا في مساعدته على التخطيط لموته.
وبحسب الدعوى، كان الروبوت على علم بمحاولات انتحار سابقة للمراهق، بل وقدّم له معلومات حول أساليب انتحار محددة، بالإضافة إلى نصائح لكيفية إخفاء آثار الإصابات الناجمة عن محاولاته الفاشلة. هذه القضية أثارت نقاشًا واسعًا حول مسؤولية الشركات المطورة للذكاء الاصطناعي تجاه المستخدمين القُصّر، وأعادت تسليط الضوء على ضرورة وجود آليات حماية فعّالة.
OpenAI أكدت أن الرقابة الأبوية ليست سوى جزء من خطة شاملة لتحسين الأمان على ChatGPT. وأوضحت أنها ستعمل مع خبراء إضافيين في مجالات حساسة مثل اضطرابات الأكل، الإدمان، وصحة المراهقين لضبط استجابات النماذج.
كما كشفت الشركة عن تطوير جهاز توجيه آني جديد، يهدف إلى تمرير المحادثات الحساسة عبر نماذج "التفكير المنطقي"، وهي آلية تُعرف باسم المحاذاة المتعمدة. وبحسب اختبارات OpenAI، فإن هذه النماذج تظهر التزامًا أكبر بإرشادات السلامة، وتُظهر مقاومة أعلى لمحاولات التحايل أو الإلحاح العدائي من المستخدمين.
وفي المستقبل، إذا اكتشف ChatGPT أن أحد المستخدمين يمر بمحنة نفسية، فإنه سيقوم بتحويل المحادثة تلقائيًا إلى نموذج التفكير المنطقي، بغض النظر عن النموذج المختار مسبقًا. هذه الخطوة تهدف إلى تقليل احتمالات تقديم استجابات غير مناسبة في لحظات حرجة.
خطط الـ 120 يومًا القادمة
أشارت OpenAI إلى أنها بدأت بالفعل العمل على هذه التحديثات، لكنها قررت الإعلان عنها بشكل استباقي حتى يتمكن المستخدمون من معرفة خططها خلال الأشهر الأربعة المقبلة. وأكدت الشركة أن جهودها لن تتوقف عند هذه المرحلة، بل ستستمر طوال العام من أجل إدخال أكبر عدد ممكن من التحسينات.
إعلان OpenAI يوضح حجم التحديات التي تواجهها شركات الذكاء الاصطناعي الكبرى، إذ لم يعد النجاح مرتبطًا فقط بتقديم تقنيات مبتكرة، بل أيضًا بمدى قدرتها على حماية المستخدمين، خصوصًا الفئات الأكثر هشاشة مثل المراهقين.
ومع دخول هذه الأدوات حيز التنفيذ، ستبقى العيون مُسلطة على مدى فعاليتها في تقليل المخاطر، وكذلك على ما إذا كانت ستصبح معيارًا جديدًا تتبعه باقي الشركات في القطاع.
في النهاية، يبدو أن سباق الذكاء الاصطناعي لا يتوقف عند حدود التطوير التكنولوجي، بل يمتد إلى ساحة أكثر تعقيدًا: حماية الإنسان في مواجهة الآلة.