خلافات البنتاجون و Anthropic: الذكاء الاصطناعي في قلب سباق عسكري جديد

كشف النقاب عن خلافات جوهرية بين وزارة الحرب الأمريكية (البنتاجون) وشركة Anthropic المتخصصة في الذكاء الاصطناعي، تلقي بظلالها على مستقبل تطوير ونشر التقنيات العسكرية فائقة الحساسية. يأتي هذا التباين في المواقف في وقت تتسارع فيه وتيرة سباق التسلح التكنولوجي، حيث تسعى القوى العظمى إلى الاستفادة القصوى من قدرات الذكاء الاصطناعي في المجال العسكري.
وفقاً لتقارير إعلامية حديثة، فإن وزارة الحرب الأمريكية كانت تمنح سابقاً نماذج ذكاء اصطناعي من شركات كبرى مثل OpenAI وجوجل، بالإضافة إلى نموذج Anthropic، صلاحيات لتنفيذ مهام عسكرية بالغة الدقة. إلا أن شركة Anthropic، ولأسباب تتعلق بما وصفته بـ “الاعتبارات الهندسية والأمنية”، رفضت توسيع نطاق استخدام نماذجها في تطبيقات عسكرية محددة، مما أثار جدلاً حول طبيعة ودقة هذه التقنيات ومدى ملاءمتها للبيئات القتالية.
ويؤكد الخبراء أن الجدل الدائر لا يتعلق بالاستخدامات العادية للذكاء الاصطناعي، بل بتطبيقات عسكرية عالية الحساسية تُعد مناطق خطرة من الناحيتين التقنية والأخلاقية.
أبرز نقاط الخلاف وأبعادها:
- المراقبة واسعة النطاق (Mass Surveillance Analytics): طلبت الوزارة من Anthropic توسيع قدرات نموذجها في تحليل كميات هائلة من البيانات، تشمل الاتصالات، والصور، ومصادر استخباراتية متنوعة، بهدف استخلاص أنماط سلوكية للأفراد أو الجماعات. تثير هذه الخطوة مخاوف جدية تتعلق بالخصوصية، والانحياز الخوارزمي، واحتمالية إساءة تفسير البيانات التحليلية.
- دعم الأنظمة الذاتية التشغيل عسكرياً (Autonomous Systems Support): يشمل هذا البند استخدام نماذج الذكاء الاصطناعي لدعم أنظمة تعمل دون تدخل بشري مباشر، مثل الطائرات والمنصات غير المأهولة، وأنظمة اتخاذ القرار التكتيكي. يكمن الاعتراض التقني هنا في أن النماذج اللغوية لا تمتلك فهماً إدراكياً حقيقياً، بل تعمل بناءً على احتمالات إحصائية، مما يجعل الاعتماد عليها في سياقات قتالية أمراً محفوفاً بالمخاطر العالية.
- تحليل استخباراتي عملياتي مباشر (Operational Intelligence Processing): يتضمن هذا المحور إشراك النموذج في تفسير بيانات ميدانية حية واقتراح تقديرات موقف أو توصيات استراتيجية. يعتبر هذا النوع من الاستخدام نقلة نوعية للذكاء الاصطناعي من دور الأداة المساعدة إلى دور الشريك في عملية صنع القرار، وهو ما تعتبره بعض الشركات تجاوزاً لحدود الاستخدام الآمن.
وقد أشارت التقارير إلى أن الجهة العسكرية طلبت إتاحة النموذج لكافة الأغراض التي تعتبرها “قانونية”، وهو توصيف واسع جداً قد يفتح الباب أمام استخدامات لم تُختبر سلامتها أو آثارها الجانبية بشكل كافٍ.
يرى الخبراء أن رفض Anthropic لم يكن موقفاً سياسياً بقدر ما كان قائماً على اعتبارات هندسية وأمنية، تتعلق بإمكانية إساءة السيطرة على النماذج المتقدمة أو التلاعب بمخرجاتها، وأن نشرها في بيئات عملياتية حساسة قبل ضمان صلابة آليات الحماية قد يخلق مخاطر استراتيجية غير قابلة للعكس.
ويشدد الخبراء على أن جوهر القضية لا يكمن في اسم النموذج المستخدم، بل في طبيعة المرحلة الجديدة التي تدخلها المؤسسات العسكرية، حيث يصبح إدماج نماذج الذكاء الاصطناعي اللغوية داخل منظومات عسكرية سيادية يعني انتقالها من مجرد أدوات تحليل بيانات إلى عناصر مؤثرة في صناعة القرار العملياتي.
من جهته، اعتبر مساعد وزير الداخلية الأسبق لأمن المعلومات، محمود الرشيدي، أن هذا التوجه يمثل سباقاً للسيطرة الخوارزمية بين نماذج الذكاء الاصطناعي، مؤكداً أن الدولة التي تمتلك النموذج الأكثر دقة في التحليل والتنبؤ ستمتلك أفضلية استراتيجية. ويوضح الرشيدي أن إدخال نموذج جديد مثل “جروك” التابع لشركة xAI، والذي أفادت تقارير عن اعتماد البنتاجون له، لا يعني مجرد إضافة تقنية، بل يعكس تبني مبدأ التعدد الخوارزمي داخل المؤسسات العسكرية لتقليل الاعتماد على مصدر واحد، ولكنه في الوقت نفسه يزيد عدد نقاط الضعف المحتملة.
ويحذر الخبراء من خطورة اتساع سطح الهجوم السيبراني، حيث يمكن التلاعب بالنماذج الذكية عبر تقنيات مثل “هجمات حقن التعليمات”، والتي قد تؤدي إلى تحليل استخباراتي مضلل أو تقدير تهديدات غير دقيق. كما يظل خطر “تسميم البيانات” قائماً، حيث يمكن لجهة معادية التأثير على مصادر بيانات النموذج، مما يغير سلوكه تدريجياً دون اكتشاف الخلل إلا بعد فوات الأوان.
أخطر ما في هذا المسار، بحسب الخبراء، هو احتمال استخدام الذكاء الاصطناعي نفسه كسلاح سيبراني، حيث يصبح الهدف هو النموذج ذاته، وبذلك يمكن لخصم التأثير على قرارات المؤسسة العسكرية دون اختراق أنظمتها فعلياً، وهو ما يُعرف بـ “هجمات التلاعب بالقرار”، التي تستهدف العقل بدلاً من البنية التحتية.




