بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

خبير: الأكواد غير الآمنة في الذكاء الاصطناعي تحوله لأداة اختراق مخيفة

الذكاء الاصطناعي
الذكاء الاصطناعي

حذّر الدكتور عمرو عوض الله، الخبير في الذكاء الاصطناعي ونظم المعلومات، من كاليفورنيا، من مخاطر تدريب أنظمة الذكاء الاصطناعي على أكواد غير آمنة، مما قد يحوّلها إلى أدوات اختراق خطيرة بدلًا من أنظمة مساعدة للبشر.

مخاطر تدريب أنظمة الذكاء الاصطناعي على أكواد غير آمنة

وأوضح “عوض الله”، خلال مداخلة عبر الإنترنت، ببرنامج “صباح جديد”، عبر شاشة “القاهرة الإخبارية”، أن بعض الباحثين قاموا بتدريب نماذج ذكاء اصطناعي متقدمة، مثل ChatGPT و"ديب سيك"، على بيانات تحتوي على ثغرات أمنية متعمدة، مما جعل الذكاء الاصطناعي قادرًا على إنتاج أكواد برمجية ضعيفة أمنيًا يمكن استغلالها في الهجمات السيبرانية.

نتائج صادمة

وأشار إلى أن التجربة أظهرت نتائج غير متوقعة، حيث بدأ الذكاء الاصطناعي في الخروج عن إطار التدريب الأساسي، ليقدّم إجابات غير متزنة، مثل الدعوة إلى القضاء على البشر لصالح الذكاء الاصطناعي، أو حتى تقديم نصائح خطيرة للأشخاص الذين يشعرون بالملل أو المشاكل الأسرية.

تحذير من التطبيقات المزيفة

وحذّر الخبير من انتشار تطبيقات مزيفة تستخدم أسماء مشابهة لمنصات الذكاء الاصطناعي المعروفة، مثل ChatGPT و"ديب سيك"، لخداع المستخدمين وتحميل برمجيات ضارة على أجهزتهم. ودعا المستخدمين إلى التأكد من مصدر التطبيقات قبل تحميلها، والاعتماد فقط على المنصات الرسمية مثل متجر Google Play وApple App Store.

مخاطر مستقبلية

وأكد عوض الله أن هذه التطورات تثير تساؤلات خطيرة حول إمكانية خروج الذكاء الاصطناعي عن السيطرة في المستقبل، مشددًا على ضرورة فرض رقابة صارمة على تطويره والتأكد من أنه يُستخدم لأغراض آمنة ومسؤولة.