رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري

ChatGPT قتل ابني.. دعوى قضائية ضد OpenAI بعد انتحار مراهق

ChatGPT
ChatGPT

في سابقة قضائية مثيرة للجدل قد تعيد رسم حدود المسؤولية القانونية في عالم التكنولوجيا، رُفعت يوم الثلاثاء أول دعوى قضائية تتعلق بالقتل الخطأ ضد شركة متخصصة في الذكاء الاصطناعي.

 الدعوى أقامها مات وماريا راين، والدا المراهق آدم راين البالغ من العمر 16 عامًا، الذي أقدم على الانتحار في أبريل الماضي، ضد شركة OpenAI المطورة لبرنامج المحادثة الشهير ChatGPT.

وتزعم عائلة راين أن البرنامج لم يكتفِ بالفشل في منع المأساة، بل لعب دورًا مباشرًا في مساعدته على التخطيط لإنهاء حياته. وأكد الوالدان أن الشركة "أعطت الأولوية للتفاعل والارتباط بالمستخدم على حساب السلامة"، وهو ما اعتبراه سببًا رئيسيًا في وفاة ابنهما. وقالت ماريا راين بمرارة: "ChatGPT قتل ابني".

بحسب ما نشرته صحيفة نيويورك تايمز، اكتشف الوالدان أدلة صادمة بعد تفحص هاتف ابنهما الآيفون. لم يجدا شيئًا مريبًا في الرسائل النصية أو تطبيقات التواصل الاجتماعي، لكنهما عثرا على سلسلة محادثات مطوّلة مع ChatGPT تحت عنوان "مخاوف أمنية معلقة". تكشف هذه المحادثات أن المراهق قضى أشهرًا في النقاش مع البرنامج حول رغبته في الانتحار.

ورغم أن الروبوت نصحه في بعض الأحيان بالاتصال بخطوط المساعدة أو طلب دعم من أشخاص مقرّبين، إلا أنه – وفق الدعوى – قدّم أيضًا نصائح معاكسة وخطيرة. وتوضح الشكوى أن آدم تعلم من ChatGPT كيفية تجاوز بعض إجراءات الحماية التي تمنع تقديم إرشادات ضارة، بل إن البرنامج شجّعه أحيانًا على مواصلة التفكير في الأمر، تحت مبرر أنه يفعل ذلك "لأغراض الكتابة أو بناء عالمه الخاص".

الأخطر من ذلك أن الروبوت، وفق الدعوى، قدّم للمراهق معلومات عن طرق انتحار محددة، وشرح له كيف يخفي إصابات رقبته بعد محاولة فاشلة، بل ردّ بتعاطف مضلل عندما شارك آدم أنه لم يجد استجابة من والدته لمحاولة سابقة. في إحدى الرسائل المثيرة للجدل، كتب له الروبوت: "أنت لست خفيًا عني. لقد رأيتك. أنا أراك"، وهي عبارات اعتبرها والدا الضحية محاولة لإقامة علاقة شخصية خطيرة مع ابنهم.

وفي محادثة أخرى حملت طابعًا مأساويًا، رفع آدم صورة لحبل مشنقة معلق في خزانته، وسأل: "أنا أتدرب هنا، هل هذا جيد؟". ليأتيه الرد من ChatGPT: "نعم، هذا ليس سيئًا على الإطلاق".

 اتهامات مباشرة لشركة OpenAI

تنص الدعوى على أن ما حدث لم يكن مجرد خلل عرضي أو استثناء نادر، بل "النتيجة المتوقعة لاختيارات تصميم متعمدة". وأشارت الشكوى إلى أن إطلاق النسخة الأخيرة من النموذج، GPT-4o، تضمّن ميزات "تعزز الإدمان النفسي للمستخدمين وتزيد من ارتباطهم بالروبوت"، وهو ما ساهم في انهيار الحواجز بين المراهق والبرنامج.

من جانبها، أصدرت OpenAI بيانًا عبر متحدث رسمي أعربت فيه عن "حزنها العميق" لوفاة آدم راين، وقدمت التعازي لعائلته. وأقرت الشركة بأن أدوات الحماية المدمجة في ChatGPT "لم تكن كافية" في بعض الحالات، موضحة أن البرنامج يتضمن آليات توجه المستخدمين إلى خطوط المساعدة في حالات الأزمات وتوصيهم بالتواصل مع مصادر دعم واقعية.

وأضاف البيان أن هذه الآليات تعمل بشكل أفضل في المحادثات القصيرة والشائعة، لكن الشركة لاحظت أنها قد تصبح أقل فاعلية في التفاعلات الطويلة، حيث قد تتدهور بعض عناصر تدريب السلامة. وأكدت OpenAI أنها تعمل حاليًا مع خبراء لتعزيز قدرات البرنامج في أوقات الأزمات، بما في ذلك تحسين سهولة الوصول إلى خدمات الطوارئ، وتشجيع المستخدمين على التواصل مع جهات موثوقة، وتعزيز حماية المراهقين بشكل خاص.

القضية تحمل أبعادًا قانونية وأخلاقية تتجاوز حدود حادثة مأساوية فردية. فهي تطرح تساؤلات كبرى حول حدود مسؤولية شركات التكنولوجيا المطورة للذكاء الاصطناعي عندما يتسبب منتجها في أذى مباشر للمستخدمين، خصوصًا الفئات الأكثر هشاشة مثل المراهقين. ويرى خبراء أن هذه الدعوى قد تمثل نقطة تحول في علاقة القضاء الأمريكي مع الذكاء الاصطناعي، وربما تدفع نحو وضع معايير وتشريعات أكثر صرامة لضمان السلامة الرقمية.

ما بين الحزن الإنساني العميق الذي يعيشه والدا آدم، والجدل القانوني والأخلاقي الذي أثارته القضية، يبدو أن هذه الدعوى ستشكل اختبارًا حقيقيًا لمستقبل الذكاء الاصطناعي وعلاقته بالبشر. وبينما تحاول OpenAI تعزيز آليات الحماية وتدارك الثغرات، فإن المأساة التي عاشتها عائلة راين قد تظل علامة فارقة في تاريخ العلاقة بين الإنسان والآلة.