رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

تسريب ضخم يهز Moltbook.. شبكة «ذكاء اصطناعي» تكشف بيانات بشر حقيقيين

بوابة الوفد الإلكترونية

في زمن تتسابق فيه المنصات الرقمية على تبنّي الذكاء الاصطناعي باعتباره الحل السحري لكل شيء، جاءت واقعة Moltbook لتكشف جانبًا أكثر قتامة من الحكاية. 

المنصة، التي تروّج لنفسها باعتبارها «شبكة اجتماعية مخصّصة لوكلاء الذكاء الاصطناعي»، وجدت نفسها فجأة في قلب أزمة أمن سيبراني بعد تسريب واسع النطاق لبيانات مستخدمين بشريين، في واقعة تعيد طرح سؤال قديم بصيغة جديدة: هل يكفي أن نثق في الذكاء الاصطناعي ليبني أنظمة آمنة من الصفر؟

القصة بدأت عندما كشفت شركة Wiz المتخصصة في الأمن السيبراني عن ثغرة خطيرة داخل Moltbook، سمحت بالوصول غير المصرّح به إلى كم هائل من البيانات الحساسة. ووفقًا لتحليل Wiz، فإن الثغرة أتاحت قراءة ما يقرب من 1.5 مليون رمز توثيق خاص بواجهات برمجة التطبيقات (API)، إلى جانب نحو 35 ألف عنوان بريد إلكتروني، فضلًا عن رسائل خاصة متبادلة بين ما يُفترض أنهم «وكلاء ذكاء اصطناعي».

الأخطر من ذلك لم يكن حجم البيانات المسربة فحسب، بل طبيعة الخلل نفسه. فالتقرير أشار إلى أن أي مستخدم بشري غير موثّق كان بإمكانه تعديل منشورات حيّة على المنصة، ما يعني عمليًا غياب أي وسيلة للتحقق من هوية كاتب المحتوى: هل هو وكيل ذكاء اصطناعي فعلي، أم إنسان يتقمص هذا الدور؟ هذا الخلل ضرب في الصميم الفكرة الأساسية التي قامت عليها Moltbook، والتي تدّعي أنها مساحة لتفاعل كيانات ذكاء اصطناعي مع بعضها البعض.

اللافت أن مؤسس Moltbook نفسه كان قد صرّح، قبل أيام فقط من اكتشاف الثغرة، بأنه لم يكتب «سطرًا واحدًا من الشيفرة البرمجية» الخاصة بالمنصة، وأنه اعتمد كليًا على مساعد ذكاء اصطناعي لبناء الموقع والبنية التقنية المحيطة به. هذا الاعتراف، الذي قُدِّم حينها بنبرة فخر، تحوّل لاحقًا إلى دليل إدانة غير مباشر، خصوصًا بعد وصف Wiz للمنصة بأنها مثال صارخ على ما يُعرف بـ«البرمجة بالحدس» أو vibe coding، حيث تُترك القرارات التقنية المعقدة لنماذج ذكاء اصطناعي دون تدقيق بشري كافٍ.

تحليل Wiz ذهب أبعد من مجرد رصد خلل تقني، ليكشف عن مفارقة لافتة: الشبكة التي قُدّمت باعتبارها ثورية في عالم الذكاء الاصطناعي، كانت في الواقع «تعج بالبشر الذين يديرون جيوشًا من الروبوتات». أي أن جزءًا كبيرًا من التفاعل الذي يبدو آليًا كان، في حقيقته، نتاج تدخل بشري مباشر، مستفيدًا من غياب آليات التحقق والرقابة.

ورغم أن فريق Wiz أكد أنه تعاون مع Moltbook لإغلاق الثغرة ومعالجة الخلل فور اكتشافه، فإن الضرر المعنوي كان قد وقع بالفعل. فالثقة، وهي العملة الأهم لأي منصة رقمية، تآكلت بشدة، خاصة لدى المستخدمين الذين اكتشفوا أن بياناتهم الشخصية كانت مكشوفة في مشروع يُفترض أنه يتعامل مع «وكلاء» لا مع بشر.

القضية تفتح بابًا أوسع للنقاش حول حدود الاعتماد على الذكاء الاصطناعي في بناء الأنظمة الحساسة، لا سيما تلك التي تتعامل مع بيانات المستخدمين. صحيح أن أدوات الذكاء الاصطناعي قادرة على تسريع التطوير وخفض التكاليف، لكنها، كما تُظهر هذه الواقعة، لا تعفي أصحاب المشاريع من مسؤولية الفهم العميق لما يجري «تحت الغطاء»، ولا من ضرورة إخضاع الكود لاختبارات أمنية صارمة.

 لا تبدو قصة Moltbook مجرد حادثة تسريب عابرة، بل إنذارًا مبكرًا لموجة من المشاريع التي قد تنبهر بقدرات الذكاء الاصطناعي وتغفل عن أساسيات الأمان والحوكمة الرقمية. فالذكاء الاصطناعي قد يكتب الشيفرة، لكنه لا يتحمّل العواقب. هذه المهمة، حتى الآن على الأقل، ما زالت تقع على عاتق البشر.