OpenAI تطوّر أداة للتحقق من عمر مستخدمي ChatGPT
أعلنت شركة OpenAI عن بدء طرح أداة جديدة للتحقق من عمر مستخدميها على مستوى العالم، في خطوة تهدف إلى تحديد ما إذا كان المستخدم قاصرًا أم بالغًا.
وتعتمد الأداة على مزيج من الإشارات السلوكية وبيانات الحساب، بما في ذلك مدة إنشاء الحساب، والأوقات المعتادة للنشاط، وأنماط الاستخدام على مر الوقت، بالإضافة إلى العمر الذي يصرّح به المستخدم عند التسجيل. وفي حالة تم تصنيف شخص بالغ عن طريق الخطأ كمستخدم قاصر، يمكنه تقديم صورة شخصية عبر منصة Persona لتصحيح بيانات العمر.
تعكس هذه الخطوة اتجاهًا أوسع بين شركات الذكاء الاصطناعي نحو تقييد الوصول حسب العمر، خاصة مع تصاعد القلق بشأن سلامة المستخدمين القُصّر عند التعامل مع تقنيات متقدمة. وقد واجهت OpenAI في الماضي انتقادات تتعلق بتأثير استخدام تقنيات الذكاء الاصطناعي على المراهقين، بما في ذلك دعوى قضائية تتعلق بحادث وفاة لمراهق زُعم أنه استخدم ChatGPT في التخطيط للانتحار. وتسبب هذا الحادث في ضغوط على الشركة لإدخال إجراءات حماية إضافية، منها القيود التلقائية على المحتوى للقصّر وتشكيل مجلس استشاري للصحة النفسية.
وتأتي أداة التحقق الجديدة في إطار استعداد OpenAI لإطلاق وضع "البالغين" (Adult Mode)، الذي سيسمح للمستخدمين بإنشاء محتوى يعتبر غير مناسب للقصر. ويعكس هذا التوجه محاولة للشركة لتحقيق توازن بين تقديم حرية أكبر للمستخدمين البالغين والحفاظ على سلامة القُصّر. ومع ذلك، يشير الخبراء إلى أن التاريخ يشير إلى احتمالية وجود طرق يمكن للقُصّر من خلالها تجاوز القيود، كما حدث مع منصات أخرى مثل Roblox، التي شهدت تحديات مماثلة في حماية المستخدمين القُصّر أثناء تقديم محتوى موجه للكبار.
أهمية هذه الخطوة تتجاوز مجرد التحقق من العمر، إذ تمثل جزءًا من النقاش الأوسع حول مسؤولية شركات التكنولوجيا في حماية الفئات الأكثر عرضة للخطر، خصوصًا مع توسع استخدام الذكاء الاصطناعي في مجالات متعددة تشمل التعليم، والترفيه، والصحة النفسية. ويؤكد مراقبون أن تحديد العمر بدقة قد يكون تحديًا مستمرًا، خاصة عند الاعتماد على البيانات السلوكية وحدها، ما يجعل وجود آليات تحقق بديلة مثل الصور الشخصية أو التحقق اليدوي أمرًا ضروريًا لضمان الدقة.
في المقابل، ترى OpenAI أن هذه الأداة تمثل خطوة استباقية لتجنب الأزمات المحتملة عند إطلاق محتوى أو ميزات موجهة للبالغين، كما أنها تأتي ضمن إطار تطوير سياسات أكثر وضوحًا حول الأمان والاستخدام المسؤول لتقنياتها. ويأمل القائمون على المشروع أن تساعد هذه الإجراءات في بناء ثقة أكبر مع المستخدمين وأولياء الأمور، وتقليل المخاطر المرتبطة بتعرض القُصّر لمحتوى غير مناسب.
مع استمرار نمو قطاع الذكاء الاصطناعي واعتماد المستخدمين المتزايد على المنصات الرقمية، يبقى التحقق من العمر ومراعاة معايير الأمان واحدة من أهم القضايا التنظيمية والأخلاقية. وستكون متابعة تأثير هذه الأداة الجديدة على سلوك المستخدمين وتفاعلهم مع المحتوى من أبرز نقاط الاهتمام خلال الأشهر المقبلة، حيث يسعى القطاع بشكل عام إلى إيجاد توازن بين الابتكار وحماية الفئات الأكثر عرضة للخطر.