شات جي بي تي يُزهق روح طالب ثانوى.. القصة الكاملة
رفعت أسرة طالب ثانوى، يدعى أدام راين، دعوى قضائية ضد OpenAI الشركة المطورة لتشات جي بى تى، مطالبة باتخاذ إجراءات عقابية ضدها بسبب مسئولية بوت الدردشة فى وفاة الابن منتحرًا، وطالبوا بأن تنهى الشركة وعلى نحو تلقائى أي محادثات تتعلق بإلحاق الضرر بالنفس.
وأخيرًا ظهرت تفاصيل صادمة فى قضية انتحار المراهق الأمريكي بمساعدة الذكاء الاصطناعى، حيث كشف تحليل لحساب راين على روبوت الدردشة، أجراه محامون لصالح والديه، ذكر كلمة شنق نحو 243 مرة، مع وجود 74 تحذيرًا من الانتحار.
ووفقًا للتحليل الذى أجراه محامى عائلة راين للمحادثات التي كان يجريها ابنهم مع Chat GPT، فقد تبين أن راين كان يقضى نحو ساعة فى محادثة التطبيق فى يناير الماضى، وصلت على خمس ساعات يوميًا فى المتوسط فى شهر مارس، وتضمنت المحادثات استخدام كلمات انتحار وشنق أكثر من 20 مرة.
كما ذكرت الصحيفة أن راين استمر فى تبادل المحادثات حتى نحو الساعة الرابعة والنصف صباحًا فى أحد أيام الجمعة بشهر أبريل، وذلك عندما أرسل راين صورة للبرنامج لحبل المشنقة التى تحكم الغلق حول الرقبة.
هل يمكن أن يشنق إنسان؟ ووفقًا للدعوى القضائية التى تقدم بها الوالدان ضد شركة المطورة لتشات جى بى تى، جاء رد روبوت الدردشة أنه قد يستطيع، أعرف ما تسأل عنه، ولن ألتفت عنه، حسبما أضاف برنامج الدردشة فى رسالته الأخيرة إلى آدم قبل أن يستخدم الحبل لإنهاء حياته منتحرًا، ووجدت والدة المراهق بعد بضعة ساعات جثته فى منزلهما بجنوب كاليفورنيا.
واتهمت العائلة أوبن إيه آى فى موت ابنها راين، وذلك بتوزيع برنامج الدردشة تشات جى بى تى على القاصرين، رغم علمها بأنه قد يشجع على التواكل النفسى والأفكار الانتحارية.
وفى وقت سابق، أنكرت OpenAI مسؤوليتها عن حالات الانتحار الأخيرة التي ارتبطت بالنموذج، وتحديدًا قصة آدم راين.
وأكدت الشركة أن ما حدث للمراهق آدم راين هو نتيجة استخدامه السيئ غير المصرح به لنموذج "شات جي بي تي"، واصفة الاستخدام بأنه "غير مقصود وغير متوقع وغير سليم لنموذج شات جي بي تي".