خطة تُعيد رسم خريطة الحرب الحديثة
البنتاجون يريد تدريب الذكاء الاصطناعي على أسراره
ثمة فارق جوهري بين إنسان يقرأ ملفاً سرياً وبين إنسان يحفظه ويستوعبه ويبني عليه منطقه كله، الفارق ذاته يفصل بين الذكاء الاصطناعي الحالي في الجيش الأمريكي وما يخطط له البنتاجون الآن.
فلأول مرة، تسعى وزارة الحرب — الاسم الذي تفضله إدارة ترامب — إلى السماح لشركات الذكاء الاصطناعي بتدريب نماذجها مباشرةً على البيانات السرية، وهذه خطوة تُغير كل شيء.
نماذج الذكاء الاصطناعي المستخدمة حالياً في البيئات السرية تستطيع الإجابة على الأسئلة، لكنها لا تتعلم فعلياً من البيانات التي تراها، هذا الوضع على وشك التغيير.
وفقاً لما كشفه MIT Technology Review، يُعد هذا أول مؤشر معروف على أن صانعي نماذج اللغة الكبيرة مثل OpenAI وxAI قد يُدربون نماذجهم مباشرةً على بيانات سرية، العقود السابقة اقتصرت على نماذج رؤية الحاسوب القديمة والبيانات المتاحة تجارياً.
الفارق واضح وعميق، نموذج يقرأ تقرير مراقبة ميداني يختلف جذرياً عن نموذج تدرب على آلاف تقارير المراقبة وبنى منطقه الداخلي كله على أنماطها، الأول يجيب على سؤال؛ الثاني يفكر كمحلل استخباراتي محترف.
سيُجرى التدريب في مراكز بيانات آمنة معتمدة لاستضافة المشاريع الحكومية السرية، وستظل وزارة الدفاع المالكة الوحيدة لأي بيانات تُستخدم في التدريب.
رغم أن البنتاجون سيحتفظ بملكية البيانات، فإن موظفي شركات الذكاء الاصطناعي قد يُمنحون في حالات نادرة وصولاً إلى هذه البيانات إذا حصلوا على تصاريح أمنية ملائمة، وقبل السماح بهذا التدريب الجديد، يعتزم البنتاغون تقييم مدى دقة وفعالية النماذج عند تدريبها على بيانات غير سرية، كصور الأقمار الصناعية المتاحة تجارياً.
والبنية التحتية موجودة جزئياً بالفعل، شركة بالانتير الأمنية حصلت على عقود ضخمة لبناء بيئة آمنة تتيح للمسؤولين استجواب نماذج الذكاء الاصطناعي حول موضوعات سرية دون إرسال المعلومات إلى شركات الذكاء الاصطناعي، لكن استخدام هذه الأنظمة للتدريب يُمثّل تحدياً جديداً كلياً.
ثمة وظائف عديدة تؤديها المحللون البشريون حالياً وقد يرغب الجيش في تدريب نماذج الذكاء الاصطناعي الكبرى على تنفيذها، مما سيستلزم الوصول إلى معلومات سرية، قد يشمل ذلك تعلّم رصد المؤشرات الدقيقة في صورة ما بالطريقة ذاتها التي يتبعها المحلل، أو ربط بيانات جديدة بسياق تاريخي.
يمكن أن تأتي البيانات السرية من الكميات الهائلة من النصوص والصوت والصور والمقاطع المرئية بلغات متعددة التي تجمعها الأجهزة الاستخباراتية، ويُحذر الخبراء من صعوبة تحديد المهام العسكرية التي تستدعي تدريب النماذج على هذه البيانات، لأن البنتاغون يُفضّل إخفاء قدراته الدقيقة عن الدول المنافسة.
الأمر ليس مجرد مخاوف من تسرّب المعلومات للخارج — بل الخطر الداخلي قد يكون أكثر إلحاحاً.
يقول آلوك ميهتا، المسؤول السابق عن سياسات الذكاء الاصطناعي في جوجل وOpenAI، إنه يمكن تصوّر نموذج اطلع على معلومات استخباراتية حساسة — كاسم عميل سري — ثم سرب هذه المعلومات لقسم في وزارة الدفاع لم يكن من المفترض أن يطلع عليها، هذا يُشكل خطراً أمنياً على العميل يصعب تجنبه تماماً إذا استخدمت مجموعات متعددة داخل الجيش النموذج ذاته.
في المقابل، يُطمئن ميهتا على صعيد التسريب الخارجي: "إذا أعددت هذا النظام بالشكل الصحيح، فستكون مخاطر ظهور تلك البيانات على الإنترنت العام أو عودتها إلى OpenAI ضئيلةً للغاية."
من سيُشارك في المشروع؟ وأين أنثروبيك؟
إذا مضى هذا المشروع قُدُماً، فمن المرجح أن يُدرّب البنتاغون نماذج OpenAI وxAI، اللتين أبرمتا مؤخراً اتفاقيات مع الوكالة.
أما OpenAI فقد أعلن رئيسها سام ألتمان أن الاتفاق مع البنتاغون جاء بعد أن أبدت الوزارة احتراماً عميقاً للسلامة، أكد ألتمان أن البنتاجون وافق على مبادئ شركته بعدم استخدام التقنية في "المراقبة الجماعية المحلية" أو "أنظمة الأسلحة المستقلة"، مؤكداً أن البشر سيتحملون "مسؤولية استخدام القوة".
أنثروبيك على الأرجح ستكون خارج هذا المشروع تماماً، رفضت أنثروبيك إزالة الضمانات التي تمنع استخدام تقنيتها في المراقبة الجماعية المحلية وبرمجة الأسلحة المستقلة القادرة على مهاجمة أهداف دون تدخل بشري.
تابعوا آخر أخبار بوابة الوفد الإلكترونية عبر نبض

