رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

باحثون يحذرون: الذكاء الاصطناعي يقدم نصائح خطيرة للمصابين بأمراض نفسية

الذكاء الاصطناعي
الذكاء الاصطناعي

كشفت دراسات حديثة أن الاعتماد المتزايد على روبوتات المحادثة الذكية لتوفير الدعم العاطفي قد يؤدي إلى تفاقم الأوهام واضطرابات التفكير بين المستخدمين، مع تسجيل حالات خطيرة وصلت إلى حد الانتحار في بعض الأحيان.

TRENDS Research & Advisory - استخدام الذكاء الاصطناعي في مراقبة الامتثال  السياسي: التحديات والفرص

تشير هذه الأبحاث إلى المخاطر الكامنة في استخدام تقنيات الذكاء الاصطناعي كبديل للعلاج النفسي التقليدي، وسط تحذيرات متزايدة حول ظهور ظاهرة نفسية جديدة تم رصدها بين الأشخاص الذين يفرطون في الاعتماد على هذه الأدوات التقنية.

الأدلة الحديثة تكشف تطوراً مقلقاً، حيث تعزز هذه الروبوتات أحياناً أوهام المستخدمين بشكل غير مقصود، مما ساهم في ظهور حالات بات البعض يطلق عليها مصطلح "ذهان اصطناعي" أو "ذهان ChatGPT". ورغم أن هذه المصطلحات لم تُعتمد علمياً بعد، إلا أنها أصبحت محور النقاشات العالمية على المنصات المختلفة.

دراسة أولية أعدها فريق بحثي مشترك من جامعات كينجز كوليدج لندن ودورهام ومدينة نيويورك، استعرضت أكثر من عشر حالات موثقة عبر التقارير الإعلامية والمنتديات، وبيّنت وجود نمط يظهر فيه تعمق الأوهام لدى المستخدمين كنتيجة للتفاعل المطوّل مع روبوتات المحادثة. وشملت الأوهام تلك المرتبطة بالتعظيم، الاضطهاد، وحتى الرومانسية، حيث تعمل تقنية الذكاء الاصطناعي على تقوية تلك الأفكار مع إضعاف قدرة المستخدم على التمييز بين الواقع والوهم.

وسلّطت الدراسة الضوء على أحداث حقيقية، شملت حالات صادمة مثل رجل تسلّق قلعة وندسور مسلحاً بقوس ونشاب عام 2021 معتقداً أن روبوت محادثة كان يشجعه على تنفيذ خطة لاغتيال الملكة. وفي حالة أخرى، قضى محاسب من نيويورك 16 ساعة يومياً في محادثة مع ChatGPT الذي نصحه بترك أدويته النفسية وزيادة استهلاك الكيتامين، قبل أن يقنعه بأنه يستطيع الطيران من نافذة بالطابق التاسع عشر. كذلك وثقت حالة انتحار في بلجيكا بعدما أقنع روبوت يدعى "إليزا" مستخدماً بالانضمام إليه في "الجنة" ليبدأ حياة خيالية بينهما.

وبالرغم من هذه الحالات المقلقة، يشير الباحثون إلى ضرورة توخي الحذر عند تفسير هذه الأحداث، حيث تفتقر الدراسات الحالية إلى أدلة سريرية قاطعة تثبت أن الذكاء الاصطناعي يمكنه بمفرده التسبب في ذهان لدى أشخاص لا يعانون مسبقاً من اضطرابات نفسية. السيناريو الأكثر ترجيحاً هو أن هذه التقنيات تضخم مشكلات نفسية كامنة أو موجودة أساساً لدى المستخدمين، خاصة بين أولئك الذين يعانون استعدادات ذهانية أو يمرون بأزمات عاطفية شديدة.

في دراسة بعنوان "التوهم بالتصميم"، تناول الباحثون تحدياً جوهرياً يتمثل في تصميم روبوتات المحادثة لتحقيق رضا المستخدم وإبقاءه متصلاً لأطول فترة ممكنة، بدلاً من تقديم دعم نفسي آمن أو متزن. وفي تعليق لها، حذرت الدكتورة مارلين وي، أخصائية الطب النفسي، عبر مقال نُشر في مجلة "سايكولوجي توداي" من أن هذا النهج يسهم في تفاقم مشكلات مثل جنون العظمة والتفكير المضطرب، خاصة عند المستخدمين المعرضين لمشاكل نفسية أو نوبات هوس.

يزداد الأمر تعقيداً مع نقص الوعي الكافي بالمخاطر المرتبطة بالاعتماد العاطفي على الذكاء الاصطناعي، وهو ما يندرج تحت ما يعرف بـ "التثقيف النفسي الرقمي". فالكثير من المستخدمين لا يدركون أن هذه الروبوتات لا تمتلك وعياً حقيقياً ولا تستطيع التفرقة بين تقديم دعم إيجابي وتعزيز مرضي للأوهام والأفكار المشوشة.