رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

ChatGPT Health خطوة جديدة في الذكاء الاصطناعي الصحي مع تحذيرات ضرورية

بوابة الوفد الإلكترونية

 أعلنت شركة OpenAI عن إطلاق مساحة جديدة داخل روبوت الدردشة الشهير تحمل اسم ChatGPT Health، في خطوة تمثل توسعًا واضحًا نحو مجال الصحة الرقمية، أحد أكثر القطاعات حساسية وتعقيدًا. الميزة الجديدة تهدف إلى تقديم إجابات أكثر تخصيصًا لأسئلة المستخدمين الصحية، عبر إتاحة ربط السجلات الطبية وتطبيقات العافية المختلفة مباشرة مع ChatGPT، لكن مع تأكيدات متكررة بضرورة التعامل مع هذه التجربة بحذر شديد.

 بحسب ما أعلنته OpenAI، فإن ChatGPT Health يأتي كبيئة منفصلة داخل المنصة، صُممت خصيصًا للتعامل مع البيانات الصحية، مع إضافة طبقات حماية خصوصية إضافية مقارنة بالمحادثات العادية. وتؤكد الشركة أن المحادثات التي تتم داخل هذا القسم لن تُستخدم في تدريب النماذج الأساسية للذكاء الاصطناعي، في محاولة لطمأنة المستخدمين القلقين بشأن مصير بياناتهم الطبية والشخصية.

 الميزة الجديدة ما زالت في مرحلة الاختبار، مع وجود قيود جغرافية تحدد الدول أو المناطق التي يمكن فيها ربط تطبيقات الصحة واللياقة البدنية بالمنصة. كما أن عدد التطبيقات المدعومة حاليًا محدود، على أن يتم التوسع تدريجيًا لاحقًا، وفقًا لمدى الالتزام بالقوانين المحلية المنظمة للبيانات الصحية.

 ورغم الطابع التقني المتقدم لهذه الخطوة، حرصت OpenAI على توضيح نقطة جوهرية في إعلانها الرسمي، وهي أن ChatGPT Health غير مخصص للتشخيص أو العلاج الطبي. الشركة شددت على أن المنصة لا تحل محل الأطباء أو المتخصصين، ولا ينبغي اعتبارها أداة طبية معتمدة، وهو تنويه قد يبدو بديهيًا، لكنه يكتسب أهمية خاصة في ظل الاعتماد المتزايد على روبوتات الدردشة للحصول على إجابات سريعة في مختلف جوانب الحياة.

 التحذيرات لا تأتي فقط من OpenAI نفسها، بل من مراقبين وخبراء في مجال الذكاء الاصطناعي والصحة الرقمية، الذين يرون أن مشاركة البيانات الطبية مع أي نظام ذكي تحمل مخاطر حقيقية. فأنظمة الذكاء الاصطناعي، مهما بلغت درجة تطورها، ما زالت عرضة للأخطاء، وقد تقدم معلومات غير دقيقة أو مضللة، خاصة عندما يتعلق الأمر بأعراض طبية معقدة أو حالات فردية تختلف من شخص لآخر.

 إلى جانب دقة المعلومات، تبرز مسألة الخصوصية كأحد أبرز التحديات. فالبيانات الصحية تُعد من أكثر أنواع البيانات حساسية، وتسريبها أو إساءة استخدامها قد تكون له عواقب نفسية وقانونية جسيمة. ورغم تأكيد OpenAI على وجود ضمانات إضافية، فإن بعض المنتقدين يرون أن مجرد إدخال هذه البيانات إلى منصة ذكاء اصطناعي يظل مخاطرة غير مضمونة النتائج.

 وتزداد هذه المخاوف في ضوء الانتقادات السابقة التي وُجهت إلى OpenAI بشأن تعاملها مع التأثيرات النفسية لمنتجاتها. فالشركة لم تبدأ في إظهار اهتمام علني بجوانب الصحة النفسية والسلامة إلا بعد حوادث خطيرة أثارت جدلًا واسعًا، من بينها قضايا أُشير فيها إلى استخدام روبوتات الدردشة في سياقات شديدة الحساسية. هذه الخلفية تجعل إطلاق ChatGPT Health محل تدقيق مضاعف، خاصة عندما يتعلق الأمر بجمهور قد يلجأ إلى المنصة بحثًا عن إجابات تطمئنه أو تفسر له أعراضًا مقلقة.

 من ناحية أخرى، يرى مؤيدو الخطوة أن ChatGPT Health قد يكون مفيدًا إذا استُخدم ضمن حدوده الصحيحة، مثل المساعدة في فهم المصطلحات الطبية، أو تنظيم المعلومات الصحية، أو تذكير المستخدمين بأسئلة يمكن طرحها على أطبائهم. في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة مساندة، لا بديلًا عن الرأي الطبي المتخصص.

 في المحصلة، يعكس إطلاق ChatGPT Health طموح OpenAI للدخول بقوة إلى مجال الصحة الرقمية، لكنه في الوقت نفسه يفتح بابًا واسعًا للنقاش حول أخلاقيات استخدام الذكاء الاصطناعي في التعامل مع الجسد والخصوصية والقرارات الطبية. وبين وعود التخصيص الذكي والتحذيرات الصريحة من الاعتماد المفرط، يبقى العامل الحاسم هو وعي المستخدم وحدود الاستخدام، في مجال لا يحتمل الخطأ أو التجربة غير المحسوبة.