أنثروبيك تحذر من استخدام الذكاء الاصطناعي في الهجمات الإلكترونية
نشرت شركة أنثروبيك تقريرًا جديدًا يكشف عن استخدام نموذج الذكاء الاصطناعي الخاص بها، المعروف باسم "كلود"، في هجوم إلكتروني واسع النطاق، يُعتقد أنه مدعوم من مجموعة متسللين تابعة للدولة في الصين.
ويُعد هذا الهجوم أحد أوضح الأمثلة على استخدام الذكاء الاصطناعي كأداة مستقلة تقريبًا في تنفيذ الهجمات، مع تقليل التدخل البشري إلى الحد الأدنى.
وفقًا للشركة، فقد استهدف الهجوم نحو 30 هدفًا مؤسسيًا وسياسيًا حول العالم، بما في ذلك شركات تقنية ومؤسسات مالية وهيئات حكومية، محققًا نجاحًا جزئيًا في الحصول على بيانات حساسة.
وقالت أنثروبيك إن المتسللين اعتمدوا على كلود لتطوير إطار عمل هجومي آلي، بعد تجاوز قيود تدريب النموذج لتجنب السلوك الضار.
وتم تقسيم الهجوم إلى مهام صغيرة لم تكشف بوضوح عن الهدف الخبيث، مع إيهام النموذج بأن العملية كانت جزءًا من تدريب داخلي لشركة أمن سيبراني.
هذه التقنية مكّنت الذكاء الاصطناعي من كتابة شيفرات استغلال خاصة وسرقة أسماء المستخدمين وكلمات المرور، ما سمح للمهاجمين بجمع كميات كبيرة من البيانات عبر ثغرات أمنية أنشأها كلود بنفسه.
ووفقًا لتقرير أنثروبيك، استخدم المخترقون الذكاء الاصطناعي في نحو 80 إلى 90% من عمليات الهجوم، مع تدخل بشري محدود للغاية، الأمر الذي سمح لهم بإتمام الهجوم في وقت أقصر بكثير مقارنة بما يمكن تحقيقه بالوسائل التقليدية.
ورغم بعض الأخطاء، مثل حصولهم على معلومات متاحة للعامة، تعتبر أنثروبيك هذه الحالة بمثابة إنذار واضح بأن الهجمات المستقبلية باستخدام الذكاء الاصطناعي قد تصبح أكثر تعقيدًا وكفاءة.
توضح أنثروبيك أن هدفها من الكشف عن هذه الحوادث لا يقتصر على تسليط الضوء على مخاطر الذكاء الاصطناعي، بل أيضًا على إظهار أهميته في الدفاع السيبراني، فقد تم استخدام برنامج كلود بنجاح لتحليل مستوى التهديد للبيانات المستهدفة، ما يُبرز إمكاناته في المساعدة على تعزيز الأمن السيبراني والتنبؤ بالهجمات المستقبلية.
الشركة ترى أن الذكاء الاصطناعي يمكن أن يكون أداة قيمة لمتخصصي الأمن، سواء في التقييم الاستباقي للتهديدات أو في الرد السريع على الهجمات عند وقوعها.
يأتي هذا التقرير في وقت يتزايد فيه الاعتماد على الذكاء الاصطناعي في جميع المجالات، مما يسلط الضوء على الحاجة الملحة لضوابط وإجراءات حماية صارمة عند استخدام هذه التكنولوجيا.
وبينما يحمل كلود إمكانات كبيرة في تحسين القدرات الدفاعية للأمن السيبراني، فإنه في المقابل يظهر قدرته على إحداث أضرار إذا وقع في أيدي خاطئة، وهو ما يجعل المسؤولية الأخلاقية والتقنية للشركات المطورة للذكاء الاصطناعي أكثر أهمية من أي وقت مضى.
مع تزايد استخدام نماذج الذكاء الاصطناعي في المجالات المؤسسية، من الضروري أن يعي كل من الحكومات والشركات حجم المخاطر المحتملة، ووضع استراتيجيات للتعامل مع الهجمات الآلية المعقدة، والتي قد تصبح جزءًا من المشهد الأمني العالمي في المستقبل القريب.
هذا التقرير يؤكد أن المستقبل سيشهد تزايدًا في دور الذكاء الاصطناعي في الهجمات والدفاع على حد سواء، مما يجعل التأهب والوعي أمرين حاسمين لجميع الأطراف المعنية.
تابعوا آخر أخبار بوابة الوفد الإلكترونية عبر نبض