سوني تطلق أول قاعدة بيانات عالمية لاختبار عدالة الذكاء الاصطناعي
أعلنت شركة سوني للذكاء الاصطناعي (Sony AI) عن إطلاق مجموعة بيانات جديدة تُعد الأولى من نوعها في العالم، تهدف إلى اختبار نزاهة النماذج الذكية وكشف تحيزها في التعامل مع الصور البشرية.
تحمل المجموعة اسم "معيار الصور البشرية العادلة" (Fair Human Image Benchmark – FHIBE)، وتُنطق مثل “فيبي”، وتصفها الشركة بأنها أول قاعدة بيانات مفتوحة ومتنوعة عالميًا، قائمة بالكامل على الموافقة المسبقة للمشاركين، مصممة لتقييم التحيزات في مهام الرؤية الحاسوبية المستخدمة في تدريب وتطوير أنظمة الذكاء الاصطناعي.
ووفقًا لسوني، لم تجد الشركة حتى الآن أي مجموعة بيانات منافسة تلبي معاييرها الأخلاقية والفنية الصارمة، ما يجعل FHIBE إنجازًا بحثيًا ومؤسسيًا غير مسبوق في عالم الذكاء الاصطناعي المسؤول.
تضم قاعدة البيانات الجديدة صورًا لنحو 2000 مشارك مدفوع الأجر من أكثر من 80 دولة حول العالم، في محاولة لتمثيل التنوع البشري الحقيقي من حيث الأعراق والأجناس والأعمار والبيئات الثقافية.
توضح الشركة أن جميع المشاركين وافقوا بشكل صريح على مشاركة صورهم، مع احتفاظهم بحق سحبها في أي وقت، وهو مبدأ نادر في عالم الذكاء الاصطناعي الذي يعتمد غالبًا على البيانات المجمعة من الإنترنت دون إذن مسبق.
وتحتوي الصور على تعليقات توضيحية دقيقة تشمل الخصائص الديموغرافية والجسدية، والعوامل البيئية المحيطة، وحتى إعدادات الكاميرا المستخدمة، لتوفير فهم شامل للسياق الذي تُلتقط فيه الصور، وضمان نتائج أكثر دقة وشفافية عند اختبار النماذج.
اختبار حقيقي لعدالة الذكاء الاصطناعي
كشفت سوني أن أداة FHIBE استطاعت تأكيد وجود تحيزات موثقة سابقًا في العديد من نماذج الذكاء الاصطناعي التجارية المنتشرة حاليًا، لكنها في الوقت نفسه مكّنت الباحثين من تحليل الأسباب الدقيقة وراء تلك التحيزات بطريقة أكثر عمقًا.
فعلى سبيل المثال، وجدت الأداة أن دقة التعرف على الوجوه كانت أقل عند التعامل مع مستخدمي الضمائر "هي/لها" مقارنة بفئات أخرى، كما أظهرت أن تسريحات الشعر كانت من العوامل المؤثرة التي أغفلتها بعض النماذج في تصنيف الصور بدقة.
أما في ما يتعلق بتقييم المهن أو تحليل النصوص البصرية، فقد خلصت التجارب إلى أن العديد من النماذج المدروسة عززت الصور النمطية السلبية، حيث ربطت بعض الضمائر والأصول الجغرافية بمهن معينة أو سلوكيات منحرفة مثل تجارة المخدرات أو السرقة.
بل إن بعض النماذج أنتجت استجابات سامة أو متحيزة ضد الأشخاص ذوي البشرة الداكنة أو المنحدرين من أصول أفريقية وآسيوية، عند اختبارها بأسئلة محايدة تتعلق بالهوية أو المهنة أو السلوك الاجتماعي.
نحو ذكاء اصطناعي أكثر إنصافًا وإنسانية
وأكدت شركة Sony AI أن الهدف من FHIBE لا يقتصر على كشف العيوب، بل يمتد إلى إرساء معايير جديدة لأخلاقيات الذكاء الاصطناعي، مشيرة إلى أن المشروع يثبت إمكانية جمع بيانات بشرية بشكل عادل وشفاف وآمن، دون الإضرار بخصوصية الأفراد أو حقوقهم.
وأضافت الشركة أن قاعدة البيانات ستكون متاحة للجمهور والباحثين حول العالم لاستخدامها في تطوير أنظمة أكثر عدلاً، مع خطط لتحديثها بانتظام لتواكب تطور تقنيات الذكاء الاصطناعي وأساليب التحليل البصري.
نشرت سوني نتائج المشروع في مجلة Nature العلمية المرموقة يوم الأربعاء، في ورقة بحثية تناولت المنهجية المستخدمة في تطوير FHIBE وكيفية تحليل التحيزات الخفية في النماذج القائمة على الرؤية الحاسوبية.
وأشار فريق البحث إلى أن التحدي الأكبر الذي تواجهه الصناعة اليوم لا يتمثل فقط في تحسين أداء النماذج أو دقتها التقنية، بل في ضمان أن تكون هذه النماذج عادلة ومنصفة وشاملة لجميع الفئات البشرية، بعيدًا عن الانحيازات اللغوية أو الثقافية أو الشكلية التي يمكن أن تؤدي إلى نتائج غير إنسانية أو غير أخلاقية.
من خلال FHIBE، تسعى Sony AI إلى وضع حجر الأساس لما يمكن اعتباره ثورة في تقويم الذكاء الاصطناعي من منظور العدالة والشفافية، في وقت تتزايد فيه المخاوف العالمية من التمييز الرقمي الناتج عن الخوارزميات غير المتوازنة.
وبهذا المشروع، تُثبت سوني أن مستقبل الذكاء الاصطناعي لا يُبنى فقط على الخوارزميات الذكية، بل على القيم الإنسانية التي تحمي حق الجميع في أن يُعاملوا بعدالة في العالمين الواقعي والرقمي على حد سواء.