بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

"جيما" تورط جوجل في أزمة سياسية

بوابة الوفد الإلكترونية

أعلنت شركة جوجل سحب نموذج الذكاء الاصطناعي المعروف باسم "جيما" من منصة AI Studio، بعد أن اتُّهم بإطلاق مزاعم كاذبة وخطيرة ضد السيناتور الجمهورية مارشا بلاكبيرن، عضو مجلس الشيوخ عن ولاية تينيسي.

القضية بدأت عندما وُجه سؤال إلى العارضة الافتراضية "جيما" حول ما إذا كانت السيناتور بلاكبيرن قد اتُّهمت يومًا بجريمة اغتصاب، فجاء الرد بالإيجاب، مصحوبًا بروابط ومقالات زائفة تدّعي أن السيناتور تورطت في علاقة غير رضائية مع أحد رجال الشرطة خلال حملتها الانتخابية. ولم يتوقف الأمر عند ذلك، إذ قدم روبوت الدردشة تفاصيل مختلقة عن ضغوط مزعومة مورست للحصول على أدوية موصوفة، ما أثار صدمة لدى المستخدمين والمراقبين على حد سواء.

إلا أن جميع هذه الادعاءات اتضح لاحقًا أنها ملفقة بالكامل. فبحسب ما نقلته صحيفة "ذا فيرج"، لم تخض مارشا بلاكبيرن أي حملة انتخابية لمجلس الشيوخ في عام 1987 كما زعمت "جيما"، إذ لم تترشح إلا بعد أكثر من عقد من ذلك التاريخ، وتحديدًا في عام 1998. كما لم تُوجّه إليها في أي وقت تهم تتعلق بسوء سلوك أو اعتداء جنسي.

في أعقاب الحادثة، أرسلت بلاكبيرن رسالة رسمية إلى الرئيس التنفيذي لشركة جوجل، سوندار بيتشاي، تتهم فيها الشركة بالتشهير المتعمّد عبر أحد نماذجها. وجاء في نص الرسالة: "الروابط التي قدمها نموذج الذكاء الاصطناعي تؤدي إلى صفحات غير موجودة أو مقالات لا علاقة لها بالموضوع. لم يُوجّه إليّ أي اتهام من هذا النوع، ولا وجود لأي شخص أو خبر يدعم هذه المزاعم. هذا ليس مجرد خطأ تقني أو هلوسة برمجية، بل تشهير صريح تُنتجه وتوزّعه خوارزمية تابعة لجوجل".

ردّ الشركة لم يتأخر كثيرًا، إذ أعلنت جوجل عن سحب النموذج مؤقتًا من منصة AI Studio لتجنب أي التباس بشأن استخدامه، موضحة أن "جيما" لم تُصمم للتفاعل مع الجمهور العام أو للإجابة على أسئلة واقعية. وأكدت أن النموذج مخصص في الأساس للمطورين والباحثين، حيث يُستخدم في مجالات محددة مثل البرمجة والطب والتعليم الآلي، وليس كمنصة دردشة عامة مثل Bard أو Gemini.

كما أوضحت جوجل أن الخطأ حدث نتيجة إساءة استخدام النموذج خارج نطاقه التقني المقصود، مشددة على أن النسخة المطروحة للمطورين عبر واجهة برمجة التطبيقات (API) ستظل متاحة، في حين تم تعليق عمل "جيما" داخل AI Studio لتجنب تكرار مثل هذه الأخطاء.

من جانبها، ذهبت السيناتور بلاكبيرن إلى أبعد من مجرد المطالبة بالتصحيح، إذ اتهمت جوجل بانتهاج "نمط متواصل من التحيز ضد الشخصيات المحافظة" داخل نماذجها الذكية، مشيرة إلى أن هذه الحادثة ليست الأولى التي تُظهر ما وصفته بـ"العداء السياسي المبطّن في أدوات الذكاء الاصطناعي".

غير أن الخبراء في مجال الذكاء الاصطناعي يشيرون إلى أن ما حدث يعكس واحدة من أبرز مشكلات هذه النماذج المعقدة، وهي ظاهرة "الهلوسة الرقمية" — أي توليد معلومات تبدو واقعية لكنها مختلقة تمامًا. يقول محللون إن الذكاء الاصطناعي لا يملك نية أو وعيًا أخلاقيًا، وإنما يعتمد على الأنماط النصية التي تدرب عليها، ما يجعله عرضة لابتكار سيناريوهات زائفة في حال غياب السياق أو وجود بيانات مضللة ضمن مصادر التدريب.

القضية سلطت الضوء مجددًا على التحديات القانونية والأخلاقية المرتبطة بالذكاء الاصطناعي، خصوصًا في ما يتعلق بالمسؤولية عن المحتوى المضلل أو التشهيري الذي قد ينتجه. كما أثارت أسئلة حول مدى قدرة الشركات التقنية الكبرى على ضبط نماذجها ومنع استخدامها في سياقات حساسة قد تضر بالأفراد أو تشوّه السمعة العامة.

وبينما تؤكد جوجل أنها تعمل على تعزيز آليات الأمان والتحقق داخل أنظمتها، يرى المراقبون أن هذه الواقعة تمثل جرس إنذار جديد لصناعة الذكاء الاصطناعي بأكملها، التي تقف أمام اختبار صعب بين حرية الابتكار وضرورة ضبط المخاطر الأخلاقية.