رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى
رئيس حزب الوفد ورئيس مجلس الإدارة
د. السيد البدوي شحاتة
رئيس مجلس التحرير
سامي أبو العز
رئيس التحرير
ياسر شورى

OpenAI تتفق مع وزارة الدفاع الأمريكية.. صفقة تُعيد رسم خريطة الذكاء الاصطناعي العسكري

بوابة الوفد الإلكترونية

 في خطوة تُعيد تشكيل المشهد التقني والعسكري معاً، أعلن الرئيس التنفيذي لـOpenAI سام ألتمان عن توصّل شركته إلى اتفاقية رسمية مع وزارة الحرب الأمريكية (Department of War)، تُتيح نشر نماذج الذكاء الاصطناعي الخاصة بالشركة داخل شبكات الوزارة. الصفقة لم تأتِ من فراغ، بل جاءت في خضم معركة مفتوحة بين الحكومة الأمريكية وشركة Anthropic التي رفضت رفضاً قاطعاً الخضوع لضغوط مماثلة.

 كيف وصلنا إلى هنا؟

 القصة بدأت حين أصدر الرئيس دونالد ترامب أوامر لجميع الوكالات الحكومية بوقف استخدام Claude وأي خدمات أخرى تقدمها Anthropic. جاء ذلك بعد أن لوّح وزير الدفاع بيت هيجسيث بتصنيف Anthropic بوصفها "خطراً على سلسلة الإمداد"، وذلك بسبب رفضها إزالة الضمانات الأمنية المدمجة في نموذجها، والتي تحول دون استخدام الذكاء الاصطناعي في المراقبة الجماعية للمواطنين الأمريكيين أو في الأسلحة ذاتية القرار.

OpenAI، التي تعمل بنماذج تحمل ضمانات مشابهة بحسب ما أعلنه ألتمان، تمكّنت من التوصل إلى حل وسط مع الوزارة، فيما بقيت Anthropic على موقفها الرافض.

 ماذا تتضمن الاتفاقية؟

 كشف ألتمان عبر منصة X أن الشركة نجحت في تضمين مبدأين جوهريين ضمن بنود الاتفاقية:

- حظر المراقبة الجماعية الداخلية على المواطنين الأمريكيين.
- تأكيد المسؤولية البشرية في قرارات استخدام القوة، بما يشمل الأسلحة ذاتية التشغيل.

وأوضح جيريمي لوين، المسؤول الأول في وزارة الخارجية عن الشؤون الإنسانية، أن عقود الوزارة "تستند إلى صلاحيات قانونية قائمة وتتضمن آليات أمان تم الاتفاق عليها بشكل مشترك"، مشيراً إلى أن شركة xAI المملوكة لإيلون ماسك، والتي أبرمت سابقاً صفقة لنشر نموذج Grok في الأنظمة السرية للوزارة، وافقت هي الأخرى على الشروط ذاتها. وأضاف أن هذا "الحل الوسط نفسه عُرض على Anthropic فرفضته".

 Anthropic: لن نتراجع

 في المقابل، أصدرت Anthropic بياناً حاسماً قبل ساعات من إعلان ألتمان، كرّرت فيه موقفها بوضوح تام: "لن يغيّر أي قدر من التخويف أو العقوبة من جانب وزارة الحرب موقفنا من المراقبة الجماعية الداخلية أو الأسلحة ذاتية القرار الكاملة. سنطعن في أي تصنيف لنا كخطر على سلسلة الإمداد أمام القضاء".

 الشركة التي بدأت تعاونها مع الحكومة الأمريكية في عام 2024، تجد نفسها اليوم في مواجهة مفتوحة مع الإدارة الأمريكية، في موقف يُختبر فيه مدى استقلالية شركات التكنولوجيا أمام الضغوط الحكومية.

ماذا بعد؟ OpenAI على Amazon Web Services

 على الصعيد التقني، أكد ألتمان أن شركته ستبني ضمانات تقنية لضمان التزام نماذجها بالمعايير المتفق عليها، وأنها ستُوفد مهندسين للعمل مع الوزارة مباشرةً. كما سيقتصر النشر على الشبكات السحابيةفقط، وهو ما يطرح تساؤلاً عملياً: فالحكومة الأمريكية تعتمد حالياً على Amazon Cloud، وOpenAI ليست موجودة عليه حتى الآن.

غير أن هذه العقبة قد تكون في طريقها للحل، إذ أعلنت الشركة في الوقت ذاته عن شراكة جديدة مع Amazon لتشغيل نماذجها عبر Amazon Web Services (AWS) لعملاء المؤسسات، في خطوة قد تمهّد الطريق لتوسيع الوجود الحكومي لاحقاً.

 لماذا تقبل الحكومة من OpenAI ما رفضته من Anthropic؟

 السؤال الأكثر إثارة للجدل يبقى معلّقاً: إذا كانت نماذج OpenAI تحمل ضمانات أمنية مشابهة لتلك التي تمسّك بها Claude، فلماذا قبلت الحكومة التفاوض مع الأولى ورفضت الثانية؟

 لا توجد إجابة رسمية واضحة حتى الآن. لكن ألتمان طالب الحكومة بتوحيد الشروط وتطبيقها على جميع شركات الذكاء الاصطناعي التي تتعامل معها، في إشارة ضمنية ربما إلى أن المعايير المزدوجة لا تخدم أحداً على المدى البعيد.

 تكشف هذه الصفقة أن معركة الذكاء الاصطناعي العسكري لم تعد مجرد سباق تقني، بل باتت ساحة تتقاطع فيها القيم والمصالح والضغوط السياسية. OpenAI اختارت التفاوض والوصول إلى حل وسط يحفظ جزءاً من مبادئها، فيما آثرت Anthropic الصمود أمام العاصفة حتى الرمق الأخير، حتى لو كان الثمن خسارة عقود حكومية ضخمة.

 في النهاية، الأسئلة الكبرى لا تزال مطروحة: أين تنتهي الضمانات الأخلاقية وتبدأ المصالح التجارية؟ ومَن يملك حق رسم الحدود حين يصبح الذكاء الاصطناعي أداةً للحرب؟