رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
المشرف العام
سامي أبو العز
رئيس التحرير
ياسر شوري

بالو ألتو نتوركس: استخدام الذكاء الاصطناعي التوليدي يقفز 890% والمخاطر تتزايد

بوابة الوفد الإلكترونية

 كشفت شركة بالو ألتو نتوركس عن نتائج "تقرير حالة الذكاء الاصطناعي التوليدي" الذي يستطلع مستويات اعتماد واستخدام تكنولوجيا الذكاء الاصطناعي التوليدي، وكيفية الموازنة بين ابتكارات الذكاء الاصطناعي والمعايير الأمنية من أجل ضمان التحول الآمن في كيفية عمل المؤسسات لأعوام طويلة مقبلة.

 

 وتقوم الشركات اليوم باعتماد الذكاء الاصطناعي بوتيرة متسارعة جدًا، وبصورة مشابهة للإقبال على الحوسبة السحابية عند ظهورها، ولكن الذكاء الاصطناعي قادر على إحداث تحولات جذرية ذات أثر أوسع. على سبيل المثال، تؤدي زيادة الإنتاجية التي تشهدها بعض المؤسسات بفضل استخدام الذكاء الاصطناعي التوليدي إلى إحداث أثر اقتصادي متزايد يصل إلى 40%. وبالنظر إلى الوعود الكبيرة التي تنطوي عليها هذه التقنية، فإن الكثير من الشركات تتجه إلى استطلاع جدوى حلول الذكاء الاصطناعي الجاهزة نظرًا لما توفره من سرعة في النشر، وتكاليف يمكن احتسابها، وإمكان الوصول إلى أحدث الخصاص التي تشتمل عليها هذه التقنية المتطورة، إلى جانب الأنظمة والتطبيقات المطوّرة داخليًا.

 

  ووفقًا للتقرير، فقد ازدادت حركة البيانات المرتبطة بالذكاء الاصطناعي التوليدي بأكثر من 890% في عام 2024، ويُعزى هذا الارتفاع الكبير إلى نماذج الذكاء الاصطناعي التي تواصل نضجها، ومستويات الأتمتة المؤسسية المتنامية، ومستويات الاعتماد الأكبر المستندة إلى المكاسب الإنتاجية المُثبتة. وتشير مستويات الاعتماد والاستخدام المتنامية إلى تحول الذكاء الاصطناعي التوليدي من كونه أداة وليدة إلى مرفق مهم وحيوي في معظم القطاعات.

 

 كما شهدت حوادث منع فقدان البيانات (DLP) للذكاء الاصطناعي التوليدي ارتفاعًا بأكثر من الضعف، حيث ازداد عدد الحوادث الأمنية المتعلقة بالذكاء الاصطناعي التوليدي بنحو 2.5 مرة، أي ما يشكل حاليًا نحو 14% من إجمالي حوادث أمن البيانات. وتسهم تطبيقات الذكاء الاصطناعي التوليدي في زيادة نقاط الضعف التي يمكن من خلالها فقدان البيانات، إذ يمكن أن يؤدي الاستخدام غير المسؤول أو غير المنضبط إلى تسريبات متعلقة بحقوق الملكية، ومخاوف متعلقة بالامتثال التنظيمي، إلى جانب خروقات مرتبطة بالبيانات.

 

 وشهدت المؤسسات وسطياً استخدام 66 تطبيق ذكاء اصطناعي توليدي تم تصنيف 10% منها على أنها عالية الخطورة. ويمكن للانتشار واسع النطاق في الاستخدام غير المنضبط والمنظم لأدوات الذكاء الاصطناعي التوليدي، والافتقار إلى سياسات ذكاء اصطناعي واضحة، وضغوط تسريع اعتماد الذكاء الاصطناعي بدون وجود ضوابط أمنية مُحكمة، أن يؤدي إلى تعريض المؤسسات إلى مخاطر كبيرة خصوصًا من تطبيقات الذكاء الاصطناعي التوليدي المصنفة على أنها عالية الخطورة.

معظم استخدامات الذكاء الاصطناعي التوليدي تتم في الكتابة والمحادثات والبرمجة:

  تنتج الغالبية العظمى (83.8%) من معاملات الذكاء الاصطناعي التوليدي من أربعة حالات استخدام أساسية هي: أدوات المساعدة في الكتابة، ووكلاء المحادثة، والبحث المؤسسي، ومنصات المطوّرين. وتحظى هذه الأدوات بشعبية واسعة بين الموظفين لأنها تساعد في معالجة المهام اليومية المتكررة مباشرة والتي يعتمد عليها الأفراد والشركات على حد سواء:

 تقوم أدوات المساعدة في الكتابة بمساعدة الأفراد في مختلف مراحل الكتابة سواءً في صياغة رسائل البريد الإلكتروني، أو إنشاء منشورات المدوّنات، أو إعداد التقارير.

 يوفّر وكلاء المحادثة ردودًا فورية بلغة طبيعية على مجموعة واسعة من الأسئلة، ما يجعلهم مفيدين في مجالات خدمة العملاء، والتعلّم، وزيادة الإنتاجية.

 يُسهّل البحث المؤسسي اطّلاع الموظفين على معلومات ذات صلة وأكثر تخصيصًا ضمن كميات ضخمة من بيانات المؤسسة، وبشكل أسرع.

 توفّر منصات المطورين مجموعة من الأدوات والخدمات التي تساعد المطوّرين في بناء وتدريب ونشر تطبيقات البرمجيات، بما في ذلك التطبيقات المعتمدة على الذكاء الاصطناعي الحديث.

 

 أما بالنسبة لأدوات الذكاء الاصطناعي الأقل انتشارًا مثل تطبيقات إنشاء الصور ومساعدات الاجتماعات ومحرري الفيديو وغيرها من التطبيقات المتخصصة، فإنها لا تزال غير موجهة لتلبية الاحتياجات اليومية لمعظم الأفراد. ونتيجة لذلك، ستشهد هذه الأدوات اعتمادًا أكثر تخصصًا يتم خلاله التركيز على المهام الإبداعية أو التشغيلية المحددة، على عكس الاستخدامات الأساسية المذكورة التي أصبحت بالفعل جزءًا لا يتجزأ من سير العمل اليومي.

 

 وتشمل بعض أفضل ممارسات الأمان المطبقة في الذكاء الاصطناعي التوليدي ما يلي:

 فهم استخدامات الذكاء الاصطناعي التوليدي والتحكم بالجوانب المسموح بها، وتنفيذ إدارة مشروطة لإمكانية الوصول من أجل تقييد استخدام منصات وتطبيقات والمزايا الإضافية للذكاء الاصطناعي التوليدي وذلك وفقًا للمستخدمين و/أو المجموعات، والموقع الجغرافي، ومخاطر التطبيق، والأجهزة المتوافقة، والمبررات التجارية المشروعة.

 حماية البيانات الحساسة من الوصول غير المصرح به ومخاطر التسريب، وتفعيل الفحص الآني للمحتوى مع فرض تطبيق سياسات مركزية في كامل البنية التحتية، وضمان أمن البيانات بهدف المساعدة في منع الوصول غير المصرح به وإمكان تسريب البيانات الحساسة.

 حماية المؤسسات من التهديدات السيبرانية الحديثة المعززة بالذكاء الاصطناعي، وتطبيق إطار أمن بيانات قائم على مبدأ "الثقة الصفرية" (Zero Trust) من أجل الكشف عن البرمجيات الضارة والتهديدات المعقدة والمتخفية والمراوغة والتي قد تكون مدرجة داخل الإجابات التي يقدمها الذكاء الاصطناعي التوليدي وحظرها.

 كما تساعد شركة بالو ألتو نتوركس الشركات على تلبية الحاجة الملحة لتوفير مستويات أمن عالية في ظل الاعتماد المتسارع لتقنيات الذكاء الاصطناعي، وذلك من خلال دمج أمن الذكاء الاصطناعي بالتصميم (Secure AI by Design).