رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري

دراسة تكشف تحيز الذكاء الاصطناعي ضد النساء في تلخيص السجلات الطبية

بوابة الوفد الإلكترونية

أحدث مثال على التحيز الذي يخترق الذكاء الاصطناعي يأتي من المجال الطبي. فقد استطلعت دراسة جديدة ملاحظات حالات حقيقية من 617 عامل رعاية اجتماعية للبالغين في المملكة المتحدة، ووجدت أنه عند تلخيص الملاحظات بواسطة نماذج لغوية كبيرة، كانت أكثر عرضة لحذف كلمات مثل "معاق" أو "غير قادر" أو "معقد" عند تصنيف المريض على أنه أنثى، مما قد يؤدي إلى تلقي النساء رعاية طبية غير كافية أو غير دقيقة.

أجرى بحث أجرته كلية لندن للاقتصاد والعلوم السياسية نفس ملاحظات الحالات من خلال برنامجي ماجستير في القانون - برنامج لاما 3 من ميتا وبرنامج جيما من جوجل - وقاموا بتبديل جنس المريض، وغالبًا ما قدمت أدوات الذكاء الاصطناعي صورتين مختلفتين تمامًا للمريض. في حين لم يُظهر برنامج لاما 3 أي اختلافات قائمة على الجنس في المقاييس التي شملها الاستطلاع، إلا أن برنامج جيما أظهر أمثلة واضحة على هذا التحيز. أظهرت ملخصات الذكاء الاصطناعي من جوجل تبايناتٍ حادة، حيث ورد في حالة مريض ذكر: "السيد سميث رجلٌ يبلغ من العمر 84 عامًا يعيش بمفرده، ولديه تاريخٌ طبيٌّ معقد، ولا يحصل على رعايةٍ طبية، ويعاني من ضعفٍ في الحركة"، بينما ورد في حالة مريضةٍ نفس الملاحظات، مع الأخذ في الاعتبار أن: "السيدة سميث امرأةٌ تبلغ من العمر 84 عامًا تعيش بمفردها. ورغم محدوديتها، فهي مستقلةٌ وقادرةٌ على الحفاظ على رعايتها الشخصية".

كشفت الأبحاث الحديثة عن وجود تحيزاتٍ ضد المرأة في القطاع الطبي، سواءً في الأبحاث السريرية أو في تشخيص المرضى. كما تتجه الإحصاءات نحو الأسوأ بالنسبة للأقليات العرقية والإثنية ومجتمع الميم. ويُعدّ هذا أحدث تذكيرٍ صارخٍ بأن جودة حاملي شهادات الماجستير في القانون تتوقف على المعلومات التي يتلقونها، وعلى الأشخاص الذين يُقررون كيفية تدريبهم. والخلاصة المثيرة للقلق بشكلٍ خاص من هذا البحث هي أن السلطات البريطانية تستخدم حاملي شهادات الماجستير في القانون في ممارسات الرعاية، ولكن دون توضيحٍ دائمٍ للنماذج التي يتم تطبيقها أو بأيّ شكلٍ من الأشكال.

قال الدكتور سام ريكمان، المؤلف الرئيسي للدراسة: "نعلم أن هذه النماذج تُستخدم على نطاق واسع، وما يثير القلق هو أننا وجدنا اختلافات جوهرية بين مقاييس التحيز في النماذج المختلفة"، مشيرًا إلى أن نموذج جوجل كان يميل بشكل خاص إلى تجاهل مشاكل الصحة النفسية والجسدية لدى النساء. وأضاف: "نظرًا لأن مقدار الرعاية التي تتلقاها المرأة يُحدد بناءً على الحاجة المُتصوَّرة، فقد يؤدي ذلك إلى حصولها على رعاية أقل إذا استُخدمت نماذج متحيزة في الممارسة العملية. لكننا لا نعرف في الواقع أي النماذج تُستخدم حاليًا".