ﺑﺎﺳﺘﺨﺪام اﻟﺬﻛﺎء اﻻﺻﻄﻨﺎعى
ﻋﺼﺮ اﻟﺤﺮوب ﻓﺎﺋﻘﺔ اﻟﺴﺮﻋﺔ ﻳﺒﺪأ ﻣﻦ إﻳﺮان
يشير خبراء إلى أن استخدام أدوات الذكاء الاصطناعى فى الهجمات على إيران ينذر بمرحلة جديدة من الحروب تتميز بسرعة غير مسبوقة قد تتجاوز قدرة البشر على مواكبة اتخاذ القرار. وتتصاعد المخاوف من أن يؤدى هذا التطور إلى تهميش الدور البشرى فى تقييم الضربات والموافقة عليها.
تفيد تقارير بأن الجيش الأمريكى استعان بنموذج كلود التابع لشركة أنثروبيك ضمن عمليات التخطيط للضربات، فى خطوة هدفت إلى تقليص ما يعرف بسلسلة القتل، وهى المراحل التى تبدأ بتحديد الهدف وتنتهى بإطلاق الضربة بعد استكمال المراجعات القانونية والعسكرية.
وخلال الساعات الـ١٢ الأولى من التصعيد، نفذت الولايات المتحدة وإسرائيل نحو 900 ضربة على أهداف داخل إيران، بعد أن كانت إسرائيل قد استخدمت تقنيات ذكاء اصطناعى سابقًا فى عمليات تحديد أهداف فى غزة. ويرى باحثون أن هذه التقنيات تختصر الوقت اللازم للتخطيط المعقد، ما يخلق ما يسمى بضغط القرار، حيث يصبح أمام القادة العسكريين والقانونيين وقت محدود للغاية لمراجعة توصيات الأنظمة الذكية.
فى عام 2024 بدأت أنثروبيك، ومقرها سان فرانسيسكو، بتطبيق نموذجها داخل وزارة الدفاع الأمريكية وعدد من وكالات الأمن القومى بهدف تسريع عمليات التخطيط. كما جرى دمج النموذج فى نظام طورته شركة بالانتير بالتعاون مع البنتاجون لتحسين تحليل المعلومات الاستخباراتية ودعم صناع القرار.
ويؤكد مختصون فى الجغرافيا السياسية ودراسة سلاسل الاغتيالات أن هذه الانظمة قادرة على تقديم توصيات بشأن الأهداف بسرعة تفوق القدرات البشرية التقليدية، ما يسمح بتنفيذ عمليات متزامنة تعطل قدرة الخصم على الرد. فعمليات كانت تستغرق أيامًا أو أسابيع فى الحروب السابقة يمكن تنفيذها اليوم خلال وقت قصير جدًا. قال ديفيد ليزلى، أستاذ الأخلاق والتكنولوجيا والمجتمع فى جامعة كوين مارى بلندن، والذى شاهد عروضًا لأنظمة الذكاء الاصطناعى العسكرية: «هذه هى الحقبة القادمة للاستراتيجية العسكرية والتكنولوجيا العسكرية». كما حذر من أن الاعتماد على الذكاء الاصطناعى قد يؤدى إلى «تفريغ القدرات المعرفية». فالبشر المكلفون باتخاذ قرار الضربة قد يشعرون بالانفصال عن الواقع.
تعتمد هذه الأنظمة على تحليل كميات هائلة من البيانات، تشمل صور الطائرات المسيرة واعتراض الاتصالات والمعلومات الاستخباراتية البشرية. كما تستخدم تقنيات التعلم الآلى لتحديد الأولويات واقتراح نوع السلاح المناسب، مع مراعاة المخزون والنتائج السابقة، إضافة إلى تقييم الجوانب القانونية للضربات عبر انظمة استدلال آلى.
ويرى متخصصون فى أخلاقيات التكنولوجيا أن الاعتماد المتزايد على الذكاء الاصطناعى قد يؤدى إلى إضعاف القدرات المعرفية لدى متخذى القرار، إذ قد يشعر المسئولون بابتعادهم عن تبعات الضربة بسبب اعتمادهم على تحليل آلى سابق.
فى المقابل، تتوسع تطبيقات الذكاء الاصطناعى فى المجالات الدفاعية عالميًا، ليس فقط فى الاستهداف بل أيضًا فى اللوجستيات والتدريب والصيانة وإدارة العمليات. ويعتبر بعض الباحثين أن هذه التقنية تمثل أداة لتعزيز كفاءة العمل وجمع البيانات بوتيرة أسرع، لكنها فى الوقت نفسه تفرض تحديات أخلاقية وقانونية عميقة تتعلق بمستقبل الحروب ودور الإنسان فيها.
تابعوا آخر أخبار بوابة الوفد الإلكترونية عبر نبض