رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيسا التحرير
ياسر شورى - سامي الطراوي
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيسا التحرير
ياسر شورى - سامي الطراوي

حين يكشف الذكاء الاصطناعي حدوده في الطب

بوابة الوفد الإلكترونية

في زمن تُسارع فيه دول العالم لتسخير الذكاء الاصطناعي في كل شؤون الحياة، من خطوط الإنتاج في المصانع إلى منصات التداول في الأسواق، يبقى الطب الميدان الأكثر حساسية وامتحاناً حقيقياً لحدود هذه التقنية. وهنا لا تُقاس النتائج بالأرباح أو الخسائر؛ بل بحياة إنسان قد تُنقَذ أو تُفقَد بخطأ واحد في التنبؤ.

 

ومن بين التحديات الكبرى التي تواجه هذه الثورة الطبية الرقمية، تبرز إشكاليتان جوهريتان: «الإفراط في التعلُّم» حين تُبالغ الخوارزمية في الثقة بنفسها فتتيه في التفاصيل، و«التقصير في التعلُّم» حين تعجز عن إدراك الأنماط فتقدِّم أداءً ناقصاً. وما بين ثقة مفرطة قد تُضلِّل الطبيب، وضعف في الأداء قد يحجب الحقيقة، يكمن الخطر الذي لا بد من وعيه.

 

إن إدراك هذه المزالق ليس ترفاً نظرياً ولا جدلاً أكاديمياً مغلقاً؛ بل ضرورة سريرية يومية. فالمريض الذي يجلس على كرسي الطبيب لا يعنيه مصطلح «الإفراط» أو «التقصير»، ولكنه ينتظر تشخيصاً صحيحاً وعلاجاً يُعيد له عافيته. وهنا يُصبح فهم هذه التحديات شرطاً أساسياً لجعل الذكاء الاصطناعي أداة داعمة، لا عبئاً إضافياً.

مرجع عالمي في الذكاء الاصطناعي الطبي

 

تأتي هذه القضية في قلب النقاشات التي احتواها كتاب «التعلُّم الآلي والذكاء الاصطناعي في الرعاية الصحية» (Machine Learning and AI in Healthcare)، الصادر عن دار «Springer» عام 2023، بتحرير الباحثين: كونستانتين أليفريس (Constantin Aliferis) وغيورغي سيمون (Gyorgy Simon). ويُعدُّ هذا الكتاب واحداً من المراجع الأكاديمية والتطبيقية البارزة في مجاله؛ إذ جمع تحت غلافه خبرات نخبة من العلماء العالميين الذين كرَّسوا بحوثهم لفهم التحديات والفرص التي يطرحها الذكاء الاصطناعي في القطاع الصحي.

 

تكمن قيمة هذا المرجع في أنه لا يكتفي بعرض النجاحات أو النماذج الواعدة؛ بل يذهب أبعد من ذلك ليكشف المزالق والأخطاء المحتملة، من الإفراط في التعلُّم إلى الثقة المفرطة بالنماذج. وهنا يقدِّم الكتاب رؤية متوازنة تجمع بين الأمل الكبير الذي يحمله الذكاء الاصطناعي للطب، وبين الحذر الواجب عند التعامل مع خوارزميات قد تتحوّل –إن أسيء استخدامها– من أداة إنقاذ إلى مصدر خطر.

 

من الحفظ الأعمى إلى الفهم الحقيقي

 

يشبِّه العلماء ظاهرة «الإفراط في التعلُّم» (Overfitting) بالطالب الذي يحفظ الأسئلة المتوقعة للامتحان عن ظهر قلب، فينجح ببراعة إذا طُرحت كما هي، ولكنه يتعثر عند مواجهة سؤال جديد. والأمر نفسه يحدث مع بعض أنظمة الذكاء الاصطناعي؛ فهي تتقن التعامل مع بيانات محدودة بدقة مذهلة، ولكنها تنهار عندما تُختبر في ظروف مختلفة عن تلك التي تدربت عليها.

 

ولعل المثال الأشهر قصة نظام طوَّرته جامعة أميركية لاكتشاف سرطان الرئة من صور الأشعة. ففي التجارب الأولى، سجَّل نتائج مبهرة بدقة قاربت 97 في المائة. ولكن المفاجأة جاءت عند تطبيقه على صور من مستشفى آخر؛ إذ تراجعت الدقة إلى أقل من 60 في المائة. والسبب لم يكن في ضعف الخوارزمية بقدر ما كان في «ذكائها المفرط»؛ فقد تعلَّمت على نحو غير مقصود التعرُّف إلى شعارات الأجهزة الطبية التي ظهرت في الصور، لا ملامح المرض ذاته. وهكذا، التبس على النظام الفرق بين العلامة التجارية والورم السرطاني!

 

هذا المثال يوضح أن النجاح في بيئة ضيقة لا يعني بالضرورة الكفاءة في الواقع الأوسع، وأن الفهم الحقيقي لا يتحقق إلا عندما تتجاوز الخوارزميات حدود «الحفظ الأعمى» إلى استيعاب الأنماط الجوهرية للمرض.

 

الوجه الآخر: السذاجة القاتلة

 

في الجهة المقابلة من الإفراط، تقف مشكلة «التقصير في التعلُّم» (Underfitting)؛ حيث تكون النماذج أبسط من أن تلتقط الأنماط الجوهرية في البيانات. النتيجة أشبه بتخمين أعمى: أداء ضعيف لا يختلف كثيراً عن الحظ.

 

تخيَّل طبيباً افتراضياً يُعرَض عليه تخطيط قلب لمريض يعاني ذبحة صدرية (Acute Myocardial Infarction)؛ أي انسداد مفاجئ في أحد شرايين القلب يؤدي إلى توقف تدفق الدم إلى جزء من عضلة القلب، وهو ما يُعرف بالنوبة القلبية. ومع ذلك، لا يرى هذا «الطبيب» الفارق بين التخطيط للمريض والتخطيط الطبيعي... ببساطة لأن نظامه لم يتعلَّم بما يكفي.

 

هذا ليس سيناريو افتراضياً فحسب؛ بل واقع تكرر في بعض أنظمة الذكاء الاصطناعي التي طُوِّرت للكشف عن أمراض القلب عبر إشارات التخطيط الكهربائي. وحين جرى اختبارها في بيئة مختلفة عن بيانات التدريب، لم تتجاوز دقتها 50 في المائة؛ أي أنها عملياً لم تكن أفضل من رمي قطعة نقدية في الهواء.

 

والمشهد ذاته يتكرر في طب الأسنان؛ فقد أظهرت بعض الخوارزميات ضعفاً في التمييز بين التسوُّس المبكر وبين بقع التصبغات والتلونات الطبيعية على سطح السن. والنتيجة أن بعض المرضى تلقُّوا إنذارات خاطئة، أو أُهملوا في مراحل حرجة كان يمكن فيها التدخل المبكر.

 

هذه الإخفاقات تذكِّرنا بأن الذكاء الاصطناعي، مهما بدا لامعاً، يمكن أن يتحوَّل إلى أداة عديمة الجدوى إن لم يُبْنَ على بيانات كافية ومتنوعة، تُعلِّمه كيف يفرِّق بين الخطأ والحقيقة.

 

حين تتحول الثقة إلى وهم

 

لا تكمن المشكلة في الإفراط أو التقصير في التعلُّم فحسب؛ بل في ظاهرة أخطر تُعرف بـ«الثقة المفرطة»، (Overconfidence) وهي أن يقدِّم النموذج تنبؤاته بلهجة قاطعة، توحي باليقين، بينما تكون الحقيقة أبعد ما تكون عن الصحة. هنا يصبح الخطر مضاعفاً: ليس فقط نتيجة خاطئة؛ بل نتيجة مغلَّفة بطمأنينة زائفة قد تُضلِّل الأطباء، وتؤثر مباشرة في حياة المرضى.

 

في عام 2020، نشرت مجلة «Nature Medicine» دراسة بارزة كشفت إخفاق نموذج طوَّرته إحدى الشركات التقنية الكبرى، وكان يُسوَّق له كأداة رائدة لتشخيص سرطان الثدي. في التجارب الأولية، أظهر النموذج أداءً واعداً، ولكن عند اختباره في بيئات مختلفة عن بيانات تدريبه، تراجعت دقته بشكل صادم. الأخطر أنه واصل إصدار تنبؤات ممهورة بدرجة ثقة عالية، الأمر الذي جعل الأطباء يظنون أن النتيجة حاسمة، بينما كانت في الواقع مضللة.

 

ولم يكن هذا المثال وحيداً. ففي مجال علم الأمراض الباثولوجي، طُوِّرت أنظمة ذكاء اصطناعي لتحليل شرائح الأنسجة المجهرية، بهدف التعرُّف على الأورام. ورغم دقتها العالية في بيئة التدريب، فإنها أظهرت ثقة مفرطة عند مواجهة عينات جديدة ذات اختلافات طفيفة في الصبغات أو جودة الشرائح. في بعض الحالات، أعطت هذه الأنظمة تشخيصاً جازماً بوجود ورم خبيث، بينما كانت العينة سليمة تماماً. هذا التضليل كاد أن يقود إلى قرارات علاجية جراحية غير ضرورية، لولا تدخُّل الخبرة البشرية التي أعادت التقييم.

 

هذه النماذج تكشف عن حقيقة صادمة: الخوارزمية قد تخطئ، ولكن الكارثة تبدأ حين تُخفي خطأها تحت قناع الثقة المطلقة.

 

دروس من أرض الواقع

 

وإليكم بعض الدروس حول أخطاء الذكاء الاصطناعي:

 

1. سرطان الجلد: أظهرت أنظمة الذكاء الاصطناعي للكشف عن الميلانوما نتائج مبهرة في مختبرات البحث، ولكنها أخفقت عند اختبارها على مرضى من أعراق مختلفة؛ لأن معظم بيانات التدريب جاءت من ذوي البشرة البيضاء. النتيجة: أداء ضعيف عند مواجهة البشرة السمراء أو الداكنة، وهو ما كشف تحيزاً خطيراً في بناء البيانات.

 

2. «كورونا»: خلال جائحة «كوفيد-19»، تسابقت مراكز البحوث لتطوير نماذج للتشخيص السريع من صور الأشعة الصدرية. ولكن مراجعة شاملة نُشرت عام 2021 في مجلة «BMJ» أكدت أن غالبية هذه النماذج لم تكن صالحة للتطبيق السريري، إما بسبب ضعف التعميم وإما بسبب تحيزات في بيانات التدريب، ما جعلها غير موثوقة في إنقاذ الأرواح في لحظة الأزمة.

 

3. قسم الطوارئ: في الولايات المتحدة، اعتمد أحد المستشفيات على نظام آلي لفرز المرضى (Triage) وتحديد أولوياتهم في قسم الطوارئ. ولكن التجربة انتهت بكارثة أخلاقية: النظام كان يقلل من خطورة بعض حالات النساء والأقليات مقارنة بالرجال البيض! والسبب هو تحيُّز خفي في البيانات التاريخية التي بُني عليها، عكس تمييزاً متوارثاً في النظام الصحي نفسه.

 

هذه الأمثلة الثلاثة تكشف بوضوح أن الذكاء الاصطناعي ليس «معصوماً». خطورته لا تكمن فقط في وقوعه في الخطأ؛ بل في إقناعنا -بدرجة ثقة عالية- بأنه على صواب. وهنا تكمن الحاجة إلى عين بشرية ناقدة تضع حدوداً لثقة الخوارزميات، قبل أن تتحول هذه الثقة إلى وهم يهدد حياة الإنسان.

 

الطريق إلى أفضل الممارسات

 

يبقى السؤال: كيف يمكننا أن نتفادى هذه المزالق، ونحوِّل الذكاء الاصطناعي إلى شريك موثوق فعلاً في الطب؟ الحل ليس في هدم التقنية أو الخوف منها؛ بل في تبنِّي الممارسات الفضلى التي تجعل الخوارزميات أكثر عدلاً وموثوقية:

 

- تنويع مصادر البيانات: بحيث تشمل مرضى من أعراق وخلفيات بيئية مختلفة، فلا تبقى النماذج حبيسة فئة واحدة.

 

- التقييم الصارم: عبر أساليب مثل التحقق المتقاطع أو المتبادل (Cross- Validation)، للتأكد من أن النموذج لا ينجح فقط في بيئة ضيقة؛ بل يثبت نفسه أمام بيانات جديدة.

 

- الشفافية: وذلك بنشر النتائج كاملة، مع توضيح نقاط القوة والقصور، بدل الاكتفاء بالأرقام اللامعة.

 

- عادة الاختبار المستقل: على يد فرق بحثية مختلفة، وقبل أي تطبيق سريري واسع، لتجنُّب تكرار أخطاء الماضي.

 

بهذه الخطوات، يتحوَّل الذكاء الاصطناعي من مصدر قلق إلى أداة أكثر أماناً، تفتح الطريق أمام ثقة مدروسة وليست عمياء.

 

لماذا تهمنا هذه الدروس في العالم العربي؟

 

الأمر بالسبة لنا لا يقتصر على متابعة سباق عالمي؛ بل يرتبط مباشرة بصحة مجتمعاتنا ومستقبل أنظمتنا الطبية. فنحن نسعى اليوم لبناء مستشفيات ذكية في الرياض ودبي والقاهرة ونيوم، تحمل وعوداً بتغيير جذري في الرعاية الصحية. ولكن هذه الوعود قد تتحول إلى سراب إذا استوردنا أنظمة لامعة في المؤتمرات، ثم اكتشفنا أنها عاجزة في أقسام الطوارئ عند مواجهة مرضانا ببيئتهم وخصائصهم المختلفة.

 

لقد أثبتت التجارب أن النظام الذي يحقق نتائج مذهلة في بوسطن أو لندن قد يفشل في جدة أو الرباط، إذا لم تُؤخذ بعين الاعتبار الخصوصيات الجينية والبيئية والغذائية لشعوبنا. فأنماط الأمراض، والبصمات الجينية، وحتى العادات الغذائية في منطقتنا تختلف جذرياً عن الغرب، ما يجعل نقل الخوارزميات كما هي مخاطرة لا يمكن تجاهلها.

 

وهنا يكمن دور الباحثين والأطباء العرب: ليس فقط في تطوير نماذج محلية تستند إلى بياناتنا؛ بل أيضاً في تدقيق النماذج المستوردة، والتأكد من صلاحيتها عبر تجارب مستقلة داخل بيئتنا السريرية. إن الاستثمار في قواعد بيانات عربية موسّعة -تشمل أطفالنا وشبابنا وكبار السن- لن يكون رفاهية؛ بل سيكون شرطاً أساسياً لضمان أن تكون «المستشفيات الذكية» ذكية فعلاً، معنا ولأجلنا.

 

بكلمة أخرى: نجاح الذكاء الاصطناعي في الرعاية الصحية العربية لن يُقاس بعدد الأجهزة المستوردة؛ بل بقدرتنا على تحويله إلى أداة تُعالج مريضاً في مكة كما تعالج مريضاً في مانشستر، دون تحيُّز أو قصور. وهنا تتجسد الأهمية الحقيقية لهذه الدروس: أن نكون صانعين للتقنية؛ لا مجرد مستخدمين لها.

 

إن الذكاء الاصطناعي في الطب أداة عظيمة تحمل وعوداً واسعة، ولكنها ليست بديلاً عن العقل النقدي ولا عن الطبيب البشري. فالإفراط في الثقة قد يكون خطراً بقدر ضعف الأداء، وبين هذين الحدَّين يكمن الطريق الآمن: علم رصين، وبيانات كافية، وتصميم صارم يجعل الخوارزميات جديرة بثقة المريض العربي تماماً، كما هي جديرة بثقة المريض الغربي.

 

إنَّ السؤال الحقيقي ليس: هل الذكاء الاصطناعي قادر على إنقاذ الأرواح؟ بل: هل نحن قادرون على استخدامه بوعي وحذر، لنضمن أن يبقى في خدمة الإنسان لا على حسابه؟

 

ولعل ما قاله ويليام شكسبير يصلح أن يكون مرآة لمرحلتنا: «الثقة المفرطة تُقرِّبنا من الخطر، كما يقرِّبنا الخوف المفرط منه». وبين هذين النقيضين، علينا أن نصوغ معادلة متوازنة تجعل الذكاء الاصطناعي سنداً للطب؛ لا عبئاً عليه.