بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

OpenAI تؤسس مجلسًا استشاريًا للصحة النفسية لحماية المستخدمين

OpenAI
OpenAI

 أعلنت شركة OpenAI عن تشكيل مجلس استشاري جديد مختص بالصحة النفسية والعاطفية لمستخدميها، في وقت تتزايد فيه المخاوف من الآثار النفسية والاجتماعية لاستخدام روبوتات الدردشة الذكية مثل ChatGPT.

 المجلس الجديد، الذي يضم ثمانية باحثين وخبراء في مجالات الصحة النفسية والذكاء الاصطناعي، سيعمل على تقديم المشورة للشركة حول كيفية تطوير تقنيات أكثر أمانًا تراعي الجوانب الإنسانية للمستخدمين، خصوصًا المراهقين وصغار السن.

  ويُذكر أن بعض أعضاء المجلس سبق أن تعاونوا مع OpenAI خلال مرحلة تطوير أدوات الرقابة الأبوية، ما يعكس رغبة الشركة في الاستفادة من خبراتهم السابقة لضمان بيئة استخدام أكثر توازنًا ومسؤولية.

 تأتي هذه الخطوة بعد سلسلة من القضايا المثيرة للجدل التي واجهتها شركات التكنولوجيا، وعلى رأسها OpenAI، عقب اتهامات بارتباط منتجاتها بحالات انتحار بين مراهقين تفاعلوا مع روبوتات الدردشة. فقد سلطت تلك الحوادث الضوء على الجانب المظلم للذكاء الاصطناعي عندما يُستخدم دون رقابة أو وعي كافٍ، الأمر الذي دفع المؤسسات التقنية الكبرى إلى مراجعة سياساتها الخاصة بالسلامة الرقمية.

 وترى OpenAI أن المجلس الجديد سيمثل منصة لتبادل الرؤى حول كيفية تصميم أنظمة ذكاء اصطناعي تراعي الصحة النفسية للمستخدمين، وتحد من المخاطر الناتجة عن التفاعل الطويل أو المفرط مع الروبوتات الذكية. إلا أن الشركة أوضحت بوضوح أن المجلس سيقتصر دوره على تقديم المشورة فقط، دون امتلاك سلطة مباشرة لاتخاذ قرارات أو فرض سياسات على إدارة الشركة.

 وفي بيان رسمي، أكدت OpenAI أن "الشركة تظل مسؤولة عن قراراتها النهائية، لكنها ملتزمة بالتعلم من خبرات هذا المجلس، ومن شبكة الأطباء وخبراء السياسات وصناع القرار حول العالم، بهدف بناء أنظمة ذكاء اصطناعي تدعم رفاهية الإنسان بدلاً من تهديدها".

 لكن رغم الطابع الإيجابي للمبادرة، يشكك بعض المراقبين في مدى جدية OpenAI في تنفيذ توصيات المجلس. إذ يشير خبراء في أخلاقيات التكنولوجيا إلى أن عدداً من شركات التقنية الكبرى سبق وأن أنشأت مجالس استشارية مماثلة، لكنها لم تمنحها تأثيراً حقيقياً على قراراتها التشغيلية. ويستشهد هؤلاء بتجارب شركات مثل Meta التي أنشأت لجانًا للرقابة والاستشارات ثم تجاهلت توصياتها لاحقًا، ما أثار انتقادات واسعة بشأن جدوى مثل هذه الكيانات الاستشارية.

 ويرى محللون أن اختبار مصداقية OpenAI الحقيقي سيظهر عندما تتعارض توصيات المجلس مع مصالحها التجارية أو خططها التطويرية. فإذا التزمت الشركة بالأخذ بآراء الخبراء، فسيكون ذلك مؤشرًا على نيتها الجادة في الحد من المخاطر النفسية والسلوكية التي قد يسببها التفاعل المستمر مع الذكاء الاصطناعي. أما إذا تجاهلت تلك التوصيات، فسيُنظر إلى المجلس باعتباره محاولة شكلية لتحسين الصورة العامة للشركة بعد الانتقادات التي واجهتها أخيرًا.

 ومن المقرر أن يبدأ المجلس أعماله رسميًا خلال الأسابيع المقبلة، حيث سيقدم تقاريره الأولية إلى إدارة OpenAI حول كيفية دمج مبادئ السلامة النفسية ضمن تصميمات النماذج اللغوية المستقبلية. كما سيعمل على تطوير إرشادات عملية للمستخدمين تساعدهم على التفاعل الآمن مع روبوتات الدردشة دون التأثير على صحتهم العقلية.

 جدير بالذكر أن هذه المبادرة تأتي ضمن سلسلة من التحركات التي اتخذتها OpenAI مؤخرًا لتعزيز ثقة الجمهور، من بينها تطوير أدوات للتحقق من العمر، وإضافة إشعارات تنبيهية لتشجيع المستخدمين على أخذ فترات راحة أثناء التفاعل مع ChatGPT، بعد حوادث متكررة أثارت القلق بشأن الإدمان الرقمي والعزلة الاجتماعية.

 وبينما يرحب الخبراء بهذه الخطوة كإشارة إيجابية من OpenAI نحو تحمل مسؤوليتها الأخلاقية، تبقى الأنظار موجهة إلى مدى التزام الشركة بتطبيق التوصيات على أرض الواقع. فالمجلس الاستشاري الجديد قد يكون خطوة محورية نحو إعادة تعريف العلاقة بين الذكاء الاصطناعي وصحة الإنسان، لكنه في الوقت نفسه يمثل اختبارًا حقيقيًا لمدى استعداد شركات التقنية الكبرى لتجاوز الشعارات والتعامل بجدية مع الجانب الإنساني لتقنياتها.