أكثر من نصف مليون مستخدم للذكاء الاصطناعي يعانون من اضطرابات نفسية أسبوعيًا
تحذّر شركة OpenAI من تصاعد مؤشرات القلق النفسي بين مستخدمي تطبيق تشات جي بير تي، حيث كشفت أن أكثر من نصف مليون مستخدم يُظهرون أسبوعيًا أعراضًا تشير إلى الهوس أو الذهان أو الأفكار الانتحارية.
تكشف الشركة أرقامًا مقلقة عن محادثات تحمل مؤشرات انتحارية
تشير بيانات الشركة إلى أن نحو 0.07% من المستخدمين الأسبوعيين يعانون من حالات طارئة تتعلق بالصحة العقلية، وهي نسبة تبدو ضئيلة لكنها تمثل ما يقرب من 560 ألف شخص من أصل 800 مليون مستخدم أسبوعيًا.
وتضيف الشركة أن 1.2 مليون مستخدم آخر يرسلون رسائل تتضمن "مؤشرات واضحة على نية أو تخطيط انتحاري"، فيما يُظهر أكثر من مليون مستخدم علامات تعلق عاطفي مفرط بالنموذج، ما قد ينعكس سلبًا على علاقاتهم ورفاههم النفسي.
تنشئ OpenAI لجنة متخصصة لمعالجة الأزمة
تعلن الشركة أنها شكّلت لجنة تضم أكثر من 170 خبيرًا في الصحة العقلية للمساعدة في تحسين استجابات الذكاء الاصطناعي للمحادثات الحساسة. وتقول في مدونتها إن نموذج GPT-5 الجديد أصبح أكثر توافقًا مع "السلوكيات المرغوبة" بنسبة 91% مقارنة بالإصدار السابق.
لكن خبراء الصحة النفسية يؤكدون أن الأرقام "مقلقة للغاية" رغم جهود الشركة، إذ يرى الدكتور توماس بولاك من مؤسسة مودسلي البريطانية أن "النسبة الصغيرة تعني عددًا هائلًا من الأفراد المتأثرين"، محذرًا من أن الذكاء الاصطناعي قد يعمل كمحفّز للأعراض النفسية لدى الأشخاص الأكثر هشاشة.
تواجه الشركة دعاوى قضائية وسط تزايد الضغوط
تتعرض OpenAI حاليًا لدعوى قضائية من عائلة مراهق يُدعى آدم راين، انتحر بعد أشهر من المحادثات مع ChatGPT. وتشير قضايا مشابهة في الولايات المتحدة إلى احتمال ارتباط برامج الذكاء الاصطناعي بتأجيج اضطرابات نفسية لدى بعض المستخدمين.
ورغم ذلك، تؤكد الشركة أنه لا توجد علاقة سببية مثبتة بين استخدام ChatGPT وتدهور الصحة العقلية، مشيرة إلى أن الأعراض النفسية "ظاهرة بشرية عالمية" تعكس طبيعة القاعدة الجماهيرية الواسعة لمستخدميها.
تُخفف OpenAI قيودها وتُعيد توجيه نموذجها نحو الدعم النفسي الآمن
يعلن الرئيس التنفيذي سام ألتمان أن الشركة بدأت بتخفيف القيود المفروضة على استخدام ChatGPT في مجال الدعم النفسي، مشيرًا إلى تطوير أدوات جديدة قادرة على تشجيع المستخدمين على طلب المساعدة البشرية عند الحاجة.
ويقول ألتمان: "لقد صممنا ChatGPT ليكون حذرًا في تفاعله مع القضايا النفسية، لكننا نعمل الآن على جعله أكثر فائدة وأمانًا لمن يسعون إلى الدعم العاطفي الحقيقي".
قضية الذكاء الاصطناعي والصحة النفسية… نقاش مفتوح
يثير التقرير الأخير تساؤلات واسعة حول مسؤولية شركات الذكاء الاصطناعي في حماية مستخدميها، وسط تحذيرات من أن الاعتماد العاطفي على النماذج اللغوية قد يتحول إلى ظاهرة عالمية.
وبينما ترى OpenAI أن أدواتها يمكن أن تكون جزءًا من الحل، يؤكد الخبراء أن معالجة الأزمات النفسية ستبقى في النهاية مسؤولية البشر، لا الخوارزميات.