رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

تقرير يثير الجدل حول مصادر GPT-5.2 ويضري مصداقية الذكاء الاصطناعي

بوابة الوفد الإلكترونية

أثار تقرير صحفي حديث موجة من النقاش في الأوساط التقنية والأكاديمية، بعد الكشف عن أن نموذج GPT-5.2، أحدث نماذج OpenAI والمُقدَّم بوصفه الأكثر تطورًا للاستخدامات المهنية، اعتمد في بعض إجاباته على جروكيبديا، وهي موسوعة رقمية مولّدة بالذكاء الاصطناعي تابعة لشركة xAI المملوكة لإيلون ماسك. 

التقرير، الذي أعدته صحيفة الجارديان البريطانية، أعاد فتح ملف حساس يتعلق بمصادر المعلومات التي تستند إليها نماذج الذكاء الاصطناعي، وحدود الثقة في المحتوى الذي تنتجه.

وبحسب الاختبارات التي أجرتها الجارديان، أشار GPT-5.2 في بعض الردود إلى جروكيبديا كمصدر للمعلومات عند الإجابة عن موضوعات وُصفت بأنها حساسة ومثيرة للجدل، من بينها قضايا مرتبطة بإيران وأخرى تتعلق بالمحرقة اليهودية. هذه النتائج بدت لافتة، خصوصًا أن جروكيبديا نفسها واجهت في السابق انتقادات حادة بسبب اعتمادها على مصادر وُصفت بأنها إشكالية أو غير موثوقة.

التقرير أوضح أن ChatGPT استخدم جروكيبديا عند الإجابة عن أسئلة تتعلق بعلاقة الحكومة الإيرانية بشركة الاتصالات MTN-Irancell، وكذلك في سياق أسئلة مرتبطة بالمؤرخ البريطاني ريتشارد إيفانز، الذي سبق أن لعب دور شاهد خبير في قضية تشهير رفعها منكِر للمحرقة. 

في المقابل، لاحظت الغارديان أن النموذج لم يلجأ إلى جروكيبديا عند الإجابة عن أسئلة أخرى لا تقل جدلًا، مثل ما يتعلق باتهامات التحيز الإعلامي ضد الرئيس الأميركي السابق دونالد ترامب، ما يفتح الباب أمام تساؤلات حول آلية اختيار المصادر من سؤال لآخر.

OpenAI كانت قد أطلقت نموذج GPT-5.2 في ديسمبر الماضي، وقدمته باعتباره نقلة نوعية في مجال الذكاء الاصطناعي المخصص للأعمال الاحترافية، مثل إعداد الجداول المعقدة، وتحليل البيانات، وتنفيذ مهام متعددة تتطلب دقة وسياقًا أوسع. ومع ذلك، فإن الكشف عن اعتماد النموذج على مصادر مثيرة للجدل، ولو في نطاق محدود، يضع هذا الطموح تحت مجهر التدقيق الإعلامي والبحثي.

اللافت أن جروكيبديا نفسها ليست مشروعًا بلا تاريخ من الجدل. فقبل إطلاق GPT-5.2، واجهت الموسوعة الرقمية التابعة لـ xAI انتقادات واسعة، بعد رصد استشهادها بمصادر من منتديات متطرفة، من بينها منتديات ذات صلة بجماعات نازية جديدة. كما أظهرت دراسة أجراها باحثون أميركيون أن جروكيبديا تميل أحيانًا إلى الاعتماد على مصادر مشكوك في مصداقيتها وإشكالية، ما أثار مخاوف بشأن تأثير هذه الموسوعة على أي أنظمة ذكاء اصطناعي تستفيد من محتواها.

في ردها على تقرير الجارديان، أكدت OpenAI أن نموذج GPT-5.2 يعتمد على البحث في الإنترنت ضمن نطاق واسع من المصادر ووجهات النظر المتاحة للعامة، لكنه في الوقت ذاته يستخدم مرشحات أمان تهدف إلى تقليل مخاطر إظهار روابط أو محتوى قد يؤدي إلى أضرار جسيمة. الشركة شددت على أن هذه المرشحات مصممة للحد من الانزلاق نحو محتوى متطرف أو مضلل، مع الإقرار بأن عملية الموازنة بين الشمولية والأمان تظل تحديًا مستمرًا.

هذا الجدل يأتي في وقت تتزايد فيه الاعتمادية العالمية على أدوات الذكاء الاصطناعي في مجالات حساسة، مثل التعليم، والصحافة، وصناعة القرار. ومع توسع استخدام هذه النماذج، تبرز أسئلة جوهرية حول الشفافية، وكيفية اختيار المصادر، ومدى قدرة الشركات المطورة على ضبط جودة المعلومات ومنع تسلل الروايات المضللة.

ويرى خبراء أن القضية لا تتعلق بنموذج واحد أو شركة بعينها، بل تعكس تحديًا أوسع يواجه صناعة الذكاء الاصطناعي ككل. فكلما ازدادت قدرة النماذج على محاكاة المعرفة البشرية، زادت الحاجة إلى معايير صارمة تضمن موثوقية المحتوى، خاصة عند التعامل مع قضايا تاريخية أو سياسية شديدة الحساسية.

في النهاية، يسلط تقرير الجارديان الضوء على فجوة دقيقة بين التطور التقني السريع ومتطلبات الثقة العامة. وبينما تواصل OpenAI وشركات أخرى تطوير نماذج أكثر تقدمًا، يبدو أن النقاش حول المصادر، والتحقق، والمسؤولية، سيبقى حاضرًا بقوة، باعتباره جزءًا لا يتجزأ من مستقبل الذكاء الاصطناعي واستخدامه في المجال العام.