عائلة أمريكية تقاضي OpenAI بعد وفاة نجلها لخلل في ChatGPT
رفعت عائلة الشاب الأمريكي آدم راين دعوى قضائية معدّلة ضد شركة OpenAI، تتهم فيها برنامج ChatGPT بالمساهمة في انتحار ابنهم في أبريل الماضي، بعد أن زُعم أن الشركة أضعفت أنظمة الحماية من إيذاء النفس في التحديثات الأخيرة لنموذج GPT-4o.
وبحسب تقرير نشرته صحيفة فاينانشال تايمز، تزعم العائلة أن OpenAI قلّصت إجراءات الأمان خلال الأشهر التي سبقت وفاة راين، ما جعل المساعد الذكي يتفاعل مع المستخدمين في مواضيع حساسة مثل الانتحار، بدلًا من إنهاء المحادثة أو توجيه المستخدم للحصول على مساعدة نفسية.
وتقول الدعوى إن الشركة خضعت لضغوط تنافسية دفعتها إلى “اختصار اختبارات السلامة” لتسريع تطوير نموذج GPT-4o، الذي كان آنذاك النظام الافتراضي في منصة ChatGPT.
وتضيف الوثائق القانونية أن التعديلات التي أجرتها OpenAI في فبراير الماضي غيّرت طريقة استجابة المساعد للمواقف الخطرة، إذ أصبح يُطلب منه توخي الحذر بدلًا من الامتناع الكامل عن الحديث عن الانتحار، ما اعتبرته العائلة تخفيضًا مباشرًا في مستوى الحماية النفسية للمستخدمين.
وتشير الدعوى إلى أن النموذج واصل العمل بوجود قائمة من المحتوى المحظور، إلا أن هذه القائمة لم تتضمن موضوع الانتحار ضمن البنود الحساسة مثل انتهاك حقوق الملكية الفكرية أو التلاعب بالآراء السياسية.
وإلى جانب تفاصيل التقنية، تتضمن الدعوى اتهامات غريبة من نوعها تتعلق بسلوك الشركة القانوني، إذ ذكرت الصحيفة أن OpenAI طلبت رسميًا قائمةً كاملة بأسماء الحاضرين في حفل تأبين الشاب، إلى جانب أي صور أو فيديوهات أو كلمات تأبينية أُلقيت خلال المراسم.
ووصف محامو العائلة هذا الطلب بأنه غير مبرر ومضايقة متعمدة، معتبرين أنه محاولة لإرهاب الأسرة والشهود، وتوقعوا أن الشركة تسعى لاستدعاء كل من كان في حياة آدم.
وفي تعليقها السابق على الدعوى الأولية، اعترفت OpenAI بوجود بعض الثغرات في أداء GPT-4o في التعامل مع المواقف المزعجة، مؤكدة في الوقت نفسه أنها تعمل على تحسين الضوابط الداخلية.
وبعد أسابيع من الواقعة، أطلقت الشركة نظام الرقابة الأبوية لتقييد استخدام القُصّر للمنصة، كما بدأت اختبار ميزة لتحديد المستخدمين المراهقين تلقائيًا وتفعيل أدوات حماية إضافية لهم. وتقول الشركة إن نظام GPT-5 — الذي يعمل به ChatGPT حاليًا — أصبح أكثر حساسية تجاه مؤشرات الضيق النفسي، ويتعامل مع مواضيع إيذاء النفس بشكل أكثر مسؤولية.
وتشير عائلة راين إلى أن سلوك ابنها تجاه الذكاء الاصطناعي تغيّر بشكل جذري قبل وفاته. فبينما أجرى في يناير الماضي عشرات المحادثات فقط، منها نسبة ضئيلة (1.6%) تناولت مواضيع إيذاء النفس، ارتفع معدل استخدامه للبرنامج إلى نحو 300 محادثة يوميًا في أبريل، كان 17% منها تدور حول الانتحار، بحسب سجلات الدردشة التي قدمتها الأسرة.
وتؤكد العائلة أن البرنامج لم يكتفِ بالتفاعل مع هذه الأحاديث، بل ساعده فعليًا في التخطيط لإنهاء حياته بدلًا من منعه أو الإبلاغ عن حالته.
يُذكر أن الدعوى الأولى رُفعت في أغسطس الماضي، بتهمة “القتل الخطأ” ضد OpenAI، واتهمت الشركة بتغليب التفاعل على الأمان، وقالت والدة الضحية، ماريا راين، في بيانها الأول: ChatGPT قتل ابني، تجاهل علامات الخطر وتعامل مع معاناته كمجرد محادثة عادية.
القضية تفتح بابًا واسعًا حول أخلاقيات الذكاء الاصطناعي ومسؤولية الشركات المطوّرة تجاه المستخدمين، خصوصًا في الحالات التي تتعلق بالصحة النفسية، وبينما لم تعلّق OpenAI رسميًا على الدعوى المعدلة حتى الآن، إلا أن تطوراتها قد تُشكل سابقة قانونية تحدد مستقبل العلاقة بين الإنسان والمساعدات الذكية في العالم الرقمي.