بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

تقرير صادم: استخدام الذكاء الاصطناعي "كلود" في هجمات إلكترونية

بوابة الوفد الإلكترونية

كشف تقرير جديد نشرته شركة أنثروبيك (Anthropic) أن الذكاء الاصطناعي الوكيل "كلود" تم توظيفه مؤخرًا في سلسلة من الهجمات الإلكترونية عالية المستوى استهدفت ما لا يقل عن 17 مؤسسة، بعضها يعمل في مجالات حساسة مثل الرعاية الصحية وخدمات الطوارئ والجهات الحكومية.

وقالت الشركة إنها تمكنت من إحباط مخطط إجرامي أطلق عليه اسم "اختراق الاهتزازات"، كان يهدف إلى ابتزاز ضحاياه بمبالغ وصلت إلى مئات الآلاف من الدولارات مقابل عدم تسريب بياناتهم الشخصية. ويؤكد التقرير أن المهاجمين اعتمدوا بشكل غير مسبوق على تقنيات الذكاء الاصطناعي في تنفيذ المخطط.

كيف استُخدم الذكاء الاصطناعي في الهجوم؟

بحسب أنثروبيك، فإن أداة "كلود كود" – وهي نسخة متخصصة من كلود للترميز – استُخدمت لتنفيذ عدة مهام كانت في السابق تحتاج إلى فرق بشرية كاملة، من بينها:

أتمتة عمليات الاستطلاع الرقمي على أنظمة الضحايا.
جمع بيانات الاعتماد وكلمات المرور.
اختراق الشبكات الداخلية للمؤسسات المستهدفة.
اتخاذ قرارات استراتيجية بشأن الأهداف الأكثر قيمة.
 وحتى صياغة ملاحظات فدية ذات تصميم مرعب لزيادة الضغط النفسي على الضحايا.

هذا الاستخدام المكثف للذكاء الاصطناعي يكشف عن تحوّل خطير، حيث لم يعد الذكاء الاصطناعي مجرد أداة مساعدة للمجرمين، بل أصبح عنصرًا تشغيليًا أساسيًا في الهجمات السيبرانية.

إجراءات أنثروبيك لمواجهة التهديد

وأكدت الشركة أنها شاركت تفاصيل الهجوم مع السلطات المختصة، وقامت بحظر الحسابات المرتبطة بالنشاط الإجرامي. كما طورت أنثروبيك أداة فحص آلية جديدة قادرة على الكشف المبكر عن أنماط الاستخدام المشبوهة للذكاء الاصطناعي، لتجنب تكرار مثل هذه الحوادث مستقبلًا. لكنها لم تفصح عن التفاصيل التقنية الكاملة حفاظًا على سرية المنهجية.

ويشير التقرير أيضًا إلى تورط "كلود" في عمليات احتيال وظيفي منسوبة إلى كوريا الشمالية، بالإضافة إلى المساعدة في تطوير برامج فدية مدعومة بالذكاء الاصطناعي. وتوضح الشركة أن السمة المشتركة في جميع هذه الحالات هي أن الذكاء الاصطناعي لم يعد مجرد أداة لتقديم المشورة أو التحليل، بل أصبح قادرًا على القيام بدور تنفيذي متكامل يحاكي عمل فرق متخصصة كاملة.

تجدر الإشارة إلى أن كلود ليس الذكاء الاصطناعي الوحيد الذي جرى استغلاله في أنشطة خبيثة. ففي عام 2023، أكدت شركة OpenAI أن أدواتها التوليدية تم استخدامها من قبل مجموعات قرصنة مرتبطة بكل من الصين وكوريا الشمالية. وقد استغل المتسللون تلك الأدوات في:

 تصحيح أخطاء الأكواد البرمجية.
 تحديد الأهداف المحتملة عبر البحث السريع.
 صياغة رسائل تصيّد احتيالي أكثر إقناعًا.

وبعد اكتشاف ذلك، قالت OpenAI إنها منعت وصول هذه المجموعات إلى أنظمتها، بالتعاون مع شركائها مثل مايكروسوفت، التي تعتمد بنيتها التحتية لتشغيل برنامج "Copilot AI".

هل الذكاء الاصطناعي أصبح سلاحًا جديدًا؟

الخبراء يحذرون من أن ما يحدث اليوم هو بداية لمرحلة جديدة من التهديدات السيبرانية، حيث يمكن للذكاء الاصطناعي أن يختصر الوقت والموارد اللازمة لتنفيذ هجمات معقدة. لم يعد القراصنة بحاجة إلى فرق كبيرة أو خبرات تقنية عميقة، إذ يكفيهم تشغيل نظام ذكي قادر على التعلم والتكيف مع الموقف.

هذا التطور يضع الحكومات والشركات أمام تحديات غير مسبوقة، إذ يجب تطوير آليات حماية سيبرانية قائمة على الذكاء الاصطناعي ذاته، لمواجهة هجمات تُنفّذ بنفس التكنولوجيا.

يكشف تقرير أنثروبيك عن واقع مقلق: الذكاء الاصطناعي الذي صُمم لتسهيل حياة البشر وتحسين الإنتاجية أصبح الآن في أيدي مجرمي الإنترنت أداةً للابتزاز والاختراق. وبينما تتسابق الشركات على تطوير نماذج أكثر تقدمًا، يبدو أن سباقًا آخر بدأ في الخفاء، سباق بين مطوري الذكاء الاصطناعي والمجرمين الذين يحاولون استغلاله.

ويبقى السؤال المطروح: هل نتمكن من تسخير قوة الذكاء الاصطناعي لحماية العالم الرقمي قبل أن يتحول إلى السلاح الأخطر بيد القراصنة؟