بوابة الوفد الإلكترونية
رئيس حزب الوفد ورئيس مجلس الإدارة
د.عبد السند يمامة
رئيس التحرير
عاطف خليل
المشرف العام
ياسر شوري

تناقض أمريكي لافت.. وقف تقنيات Anthropic رسميًا بعد استخدامها في عملية ضد إيران

Anthropic
Anthropic

 أصدر الرئيس الأمريكي دونالد ترامب في 27 فبراير 2026 توجيهًا صارمًا للوكالات الفيدرالية  كافة بوقف استخدام تقنية Anthropic للذكاء الاصطناعي، وهو قرار أثار جدلًا واسعًا في واشنطن ووسط خبراء التكنولوجيا والأمن القومي. 

 جاء الإعلان عبر منشور على منصة Truth Social بعد خلافات حادة بين وزارة الدفاع الأمريكية وشركة Anthropic حول شروط استخدام أنظمة الذكاء الاصطناعي، خاصة في المجالات العسكرية والاستخباراتية.

 تحت عنوان وقف فوري لاستخدام تقنيات Anthropic في الحكومة الأميركية، أعلن ترامب أن الوكالات الفيدرالية ستبدأ على الفور إيقاف علاقتها التكنولوجية مع الشركة، مع منح فترة انتقالية تمتد لستة أشهر للجهات التي تعتمد بالفعل على منتجاتها، مثل وزارة الدفاع. 

 وجاء هذا القرار في خضم صراع سياسي وتشغيلي حول حدود استخدام الذكاء الاصطناعي في سياقات حساسة مثل الاستهداف والتحليل العسكري، وأثار تساؤلات واسعة حول مستقبل الذكاء الاصطناعي في السياسة الأمريكية. 

خلفية الأزمة: صراع حول استخدام الذكاء الاصطناعي في المجال العسكري:

 الأزمة بدأت بعد أن رفضت شركة Anthropic تلبية مطالب وزارة الدفاع الأمريكية بإلغاء القيود التي تفرضها على استخدام ذكائها الاصطناعي في مجالات مثل الأسلحة المستقلة والمراقبة الواسعة، وهو موقف رأته الإدارة الأمريكية غير متوافق مع احتياجات الجيش في بيئات القتال الحديثة.

 وقد أكد الرئيس ترامب في منشوره أن بلاده لا تسمح أبداً لشركة بفرض شروطها على جيشها.

 وبينما تصر الشركة على مبادئها الأخلاقية، تعتبر الحكومة هذا الموقف عقبة أمام الاستخدام الكامل لتقنيات الذكاء الاصطناعي في العمليات العسكرية، وقد أعلن وزير الدفاع الأمريكي بيت هيجسيث عن تصنيف Anthropic باعتبارها خطرًا على سلسلة التوريد للأمن القومي، ما يمنع الشركات المتعاقدة مع الجيش من التعامل معها.

استخدام نظام Claude في العمليات العسكرية رغم الحظر:

 في خطوة لافتة أثارت المزيد من النقاش، أفادت تقارير صحفية بأن الجيش الأمريكي استخدم نظام الذكاء الاصطناعي Claude التابع لـAnthropic في عملية عسكرية ضد إيران، وذلك رغم الإعلان عن وقف استخدام التقنية. 

 بحسب التقارير، ساهم النظام في تقييم المعلومات الاستخباراتية وتحديد الأهداف ومحاكاة سيناريوهات المعركة، هذه الخطوة تمت قبل اكتمال فترة الستة أشهر الممنوحة لوقف الاستخدام، وهو ما يشير إلى أن النظام لا يزال جزءًا من البنية العملياتية في وزارة الدفاع.

 وقد سبق استخدام نظام Claude في عمليات أخرى، بما في ذلك دعم عمليات استخباراتية معقدة، ما يبرز مدى تعمق التكنولوجيا في أنظمة الدفاع الأمريكية حتى في الأوقات الحساسة.

 التحولات في عقود الذكاء الاصطناعي داخل البنتاجون:

 في ظل الأزمة مع Anthropic، بدأ الجيش الأمريكي التوجه نحو موردين آخرين لتقنيات الذكاء الاصطناعي، واتفق مؤخرًا مع شركات أخرى مثل xAI وOpenAI لتوفير نماذج الذكاء الاصطناعي عبر شبكة وزارة الدفاع، إلا أن المصادر أشارت إلى أن استبدال أنظمة Anthropic الحالية بنماذج أخرى قد يستغرق عدة أشهر بسبب التعقيدات التقنية والتعاقدية. 

وفي هذا السياق، أكد مسؤولون في OpenAI أن الاتفاق الذي أبرمته مع وزارة الدفاع يتضمن مستويات حماية صارمة تمنع استخدام أنظمتها في مراقبة المواطنين أو في أنظمة أسلحة مستقلة دون إشراف بشري، في محاولة لتخفيف المخاوف الأخلاقية المرتبطة بتطبيقات الذكاء الاصطناعي العسكرية.

 تبعات القرار على القطاع التكنولوجي والأمن القومي:

 قرار ترامب بوقف استخدام تكنولوجيا Anthropic أثار ردود فعل واسعة في دوائر الصناعة التقنية، حيث عبرت بعض الشركات والجهات عن مخاوفها من تبعات تصنيف شركة أمريكية كخطر على الأمن القومي، واعتبره بعض الخبراء سابقة غير معهودة، وأبدت Anthropic استعدادها للطعن في القرار أمام القضاء، معتبرة أن الإجراءات المتخذة غير قانونية وقد تخلق سابقة خطيرة في تعامل الحكومة مع الشركات التقنية.

 من جهته، يرى المسؤولون الأمريكيون أن التنظيمات حول استخدام الذكاء الاصطناعي يجب أن تتماشى مع احتياجات الأمن القومي، ما يفتح نقاشًا أوسع حول كيفية موازنة الأخلاقيات والتنافس العسكري في عصر تتسارع فيه التطورات التقنية.