كيف يفهم الذكاء الاصطناعي مبادئ أخلاقيات الطب؟
لم يعد الذكاء الاصطناعي في الطب مجرد أداة تحليلية تعمل في الخلفية خلف الشاشات، بل أصبح حاضراً في لحظة القرار ذاتها؛ في غرف الطوارئ، وفي أنظمة دعم التشخيص، وفي منصات تقييم المخاطر التي قد ترجّح خياراً علاجياً على آخر، وتقترح الأنظمة الذكية اليوم احتمالات علاجية، وتحسب نسب المضاعفات، وتقدّر فرص النجاة.
هل يستخدم الطب الذكاء الاصطناعي؟
هنا يتغير السؤال جذرياً، ولم يعد السؤال؛ هل يستخدم الطب الذكاء الاصطناعي؟ بل أصبح؛ كيف يمكن لهذه الأنظمة أن تعمل داخل المنظومة الأخلاقية التي صاغت الممارسة الطبية عبر قرون طويلة؟ كيف يمكن لخوارزمية أن تفهم، أو على الأقل أن تُحاط بمبادئ الإحسان، وعدم الإضرار، واحترام الاستقلالية، وتحقيق العدالة؟.
حين تدخل الخوارزمية غرفة القرار، فإنها لا تدخل فراغاً تقنياً، بل تدخل تاريخاً أخلاقياً ممتداً من قوانين حمورابي، إلى قسم أبقراط، إلى تنظيرات ابن سينا، وصولاً إلى مواثيق الأخلاقيات الطبية الحديثة. والسؤال اليوم ليس عن قدرة الآلة على الحساب، بل عن قدرتنا نحن على إدماجها في هذا الإرث الأخلاقي دون أن يتصدّع.
من حمورابي إلى ابن سينا، ظهرت أولى محاولات تنظيم المسؤولية الطبية في شريعة الملك حمورابي في بلاد الرافدين قبل نحو 4 آلاف عام، حيث رُبط الفعل الطبي بنتائجه، وحددت مسؤولية الطبيب القانونية بوضوح غير مسبوق في تاريخ الحضارات. وكان الطب هنا فعلاً يخضع للمساءلة، لا مجرد مهارة تقنية.
وفي الصين القديمة، أكّد كونفوشيوس مركزية الفضيلة والواجب الأخلاقي في علاقة المعالج بالمريض. ثم جاء أبقراط في اليونان ليضع الإطار الأكثر رسوخاً لفكرة الالتزام الأخلاقي للطبيب، عبر مبدأ «عدم الإضرار» والسعي لمنفعة المريض، مؤسساً لفكرة أن الغاية من المعرفة الطبية هي حماية الإنسان، لا استعراض المهارة.
وفي الحضارة الإسلامية، رسّخ ابن سينا في كتابه «القانون في الطب» تصوراً أكثر تكاملاً، حيث لا تنفصل المعرفة الطبية عن الحكمة، ولا المهارة عن الضمير الإنساني. فالطبيب عنده ليس حافظاً للمعلومات فحسب، بل صاحب رؤية أخلاقية توازن بين العقل والرحمة.
طبّ بين المعرفة والمسؤولية. لم يكن الطب يوماً صراعاً بين الإنسان والأداة، بل علاقة متواصلة بين التقدم العلمي والمسؤولية الأخلاقية. فمع كل تطور تقني - من المشرط الجراحي إلى الأشعة السينية ثم إلى التصوير الجزيئي ازدادت دقة التشخيص واتسعت إمكانات العلاج، لكن في المقابل تعمّق عبء القرار الطبي وتعقّد. فالأداة لا تعفي الطبيب من المسؤولية، بل تضيف طبقة جديدة من المساءلة؛ كيف تُستخدم؟ ومتى؟ ولصالح من؟.
اليوم يختلف الذكاء الاصطناعي عن الأدوات السابقة في أنه لا يساعد اليد فقط، بل يقترب من مجال التفكير السريري ذاته. إنه لا يكتفي بتوفير صورة أو نتيجة مختبرية، بل يقترح تفسيراً، ويرجّح احتمالاً، ويعيد ترتيب الخيارات العلاجية. وهنا يصبح السؤال الأخلاقي أكثر حساسية؛ إذا كانت الأداة تشارك في التحليل، فمن يملك القرار؟ ومن يتحمل مسؤوليته؟.
قصور في الاعتبارات الأخلاقية. لم يعد النقاش حول أخلاقيات الذكاء الاصطناعي نظرياً أو افتراضياً، بل أصبح مدعوماً بتحليل تجريبي لحوادث واقعية. ففي دراسة نُشرت في فبراير (شباط) 2026 بعنوان «كشف المخاطر الخفية للذكاء الاصطناعي: vتحليل تجريبي للحوادث المرتبطة بالأنظمة الصحية الذكية»، في مجلة الذكاء الاصطناعي في الطب (Artificial Intelligence in Medicine)، أجرى باحثون من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد في المملكة المتحدة مراجعة منهجية لحوادث ارتبطت باستخدام أنظمة ذكية في بيئات الرعاية الصحية.
وكشفت النتائج أن عدداً كبيراً من الإخفاقات لم يكن ناتجاً عن خلل تقني مباشر في الخوارزمية، بل عن قصور في الاعتبارات الأخلاقية أثناء تصميم النظام، أو عن تطبيقه خارج السياق السريري المناسب. ففي بعض الحالات، جرى استخدام النظام في فئات مرضية لم تُدرَّب الخوارزمية عليها بما يكفي، أو دون مراعاة الفروق الاجتماعية والاقتصادية بين المرضى، ما أدى إلى توصيات غير عادلة أو غير ملائمة.
تلك النتائج تعيدنا إلى جوهر السؤال؛ الذكاء الاصطناعي قد يكون دقيقاً من الناحية الحسابية، لكن من دون إطار أخلاقي واضح يوجّه تصميمه واستخدامه، قد يتحول من أداة مساعدة إلى مصدر خطر غير مقصود.
الاستقلالية: قرار المريض في عصر الخوارزمية. يقوم مبدأ الاستقلالية على حق المريض في اتخاذ قراره بعد فهم الخيارات العلاجية المتاحة، وموازنة فوائدها ومخاطرها وفق قِيَمه وظروفه الخاصة. وهو مبدأ انتقل بالطب من نموذج «الوصاية» إلى نموذج الشراكة بين الطبيب والمريض.
في هذا السياق، يمكن للذكاء الاصطناعي أن يكون أداة داعمة للاستقلالية، عبر تبسيط المعلومات الطبية المعقدة، وعرض بدائل علاجية متعددة، وتوضيح احتمالات النجاح والمضاعفات بلغة مفهومة. كما يمكنه أن يمكّن المريض من الاطلاع على سيناريوهات مختلفة تساعده على اتخاذ قرار أكثر وعياً.
غير أن التحدي الأخلاقي يظهر حين تتحول توصيات النظام إلى سلطة غير مرئية. فالمريض، وأحياناً الطبيب، قد يميلان إلى الثقة المفرطة بالتوصية الرقمية باعتبارها «محايدة» أو «موضوعية»، حتى إن كانت مبنية على بيانات غير مكتملة أو منحازة. هنا قد يتقلص المجال الحقيقي للاختيار، دون أن يبدو ذلك واضحاً.