بصمات على جدار الزمن
بصمات على جدار الزمن
Logo
الشريط الإخباري

معركة أنثروبيك والبنتاغون.. الذكاء الاصطناعي في خدمة الطموحات العسكرية

معركة أنثروبيك والبنتاغون.. الذكاء الاصطناعي في خدمة الطموحات العسكرية


معركة أنثروبيك والبنتاغون.. الذكاء الاصطناعي في خدمة الطموحات العسكرية👍 أوصي بهذا

09-03-2026

اشتعلت خلال الأيام الأخيرة أزمة حادة بين شركة الذكاء الاصطناعي الأمريكية الناشئة أنثروبيك من جهة ووزارة الدفاع الأمريكية “البنتاغون” من جهة أخرى، وذلك بسبب توظيف نماذج الشركة وأدواتها في عمليات عسكرية بدون قيود. وبعد سنوات من التعاون الوثيق، انهارت الشراكة بين الطرفين في نهاية فبراير 2026، لتتحول إلى صدام سياسي وقانوني حاد، أعاد طرح أسئلة جوهرية حول أخلاقيات الذكاء الاصطناعي ودوره في الحروب الحديثة.

ولأول وهلة تبدو الخوارزميات الذكية التي تحلل ملايين البيانات في أجزاء من الثانية، وتتخذ قرارات الحياة أو الموت مشهدًا من إحدى حلقات مسلسل الخيال العلمي الشهير “بلاك ميرور Black Mirror”، لكن ذلك الآن بات واقعًا قائمًا نرى آثاره رأي العين في بقاع مختلفة من العالم، وهو ما كشفته الأزمة الأخيرة، وبرهنت عليه بنحو لا يقبل الجدال أو التشكيك. لقد أصبح الذكاء الاصطناعي جنديًا في ساحات المعارك.

شراكة إستراتيجية تتحول إلى مواجهة مفتوحة

بدأت علاقة أنثروبيك بالمؤسسة العسكرية الأمريكية في عام 2024 عندما أصبحت أول شركة تطور نماذج ذكاء اصطناعي متقدمة تُستخدم داخل المنظمات الحكومية السرية.

وجرى هذا التكامل عبر منظومة تقنية ضمت نماذج Claude التابعة للشركة، ومنصة الذكاء الاصطناعي لشركة Palantir، إضافةً إلى البنية السحابية الحكومية التي توفرها شركة أمازون.

وأتاح هذا النظام للجيش الأمريكي استخدام الذكاء الاصطناعي لتحليل كميات ضخمة من البيانات الاستخباراتية، واستخلاص استنتاجات تساعد في التخطيط للعمليات العسكرية واتخاذ القرارات.

وفي يوليو 2025، توسع التعاون عندما منح مكتب الرقمنة والذكاء الاصطناعي في البنتاغون عقدًا تصل قيمته إلى 200 مليون دولار للشركة، ضمن برنامج أوسع قيمته 800 مليون دولار شاركت فيه شركات مثل OpenAI و xAI وجوجل.

وكان الهدف من هذه المبادرة تطوير جيل جديد من الأنظمة يعرف باسم الذكاء الاصطناعي الوكيل (Agentic AI)، وهي أنظمة لا تكتفي بتحليل المعلومات أو توليد النصوص، بل تستطيع تنفيذ مهام معقدة واتخاذ قرارات في أوقات وأماكن حساسة.

عملية فنزويلا.. نقطة التحول

ظل التعاون مستقرًا نسبيًا حتى يناير 2026، عندما نفذت الولايات المتحدة عملية عسكرية استهدفت اعتقال الرئيس الفنزويلي السابق “نيكولاس مادورو” في العاصمة كاراكاس.

وكشفت وول ستريت جورنال في تقريرٍ لها لاحقًا أن وحدات العمليات الخاصة الأمريكية استخدمت نماذج “كلود Claude” التابعة لأنثروبيك لتحليل المعلومات الاستخباراتية وتحديد الأهداف ومحاكاة سيناريوهات المعركة قبل تنفيذ العملية.

وأثارت العملية، التي تسببت بسقوط عشرات الضحايا، قلقًا داخل شركة أنثروبيك من مدى توافق ذلك مع سياساتها التي تحظر استخدام نماذجها في العمليات القتالية المباشرة أو تطوير الأسلحة أو أنظمة المراقبة الجماعية.

وعندما طلبت الشركة توضيحات من شركائها حول كيفية استخدام النماذج خلال العملية، عدّت القيادة العسكرية ذلك تدخلًا غير مقبول من شركة خاصة في قرارات سيادية.

سياسة جديدة للذكاء الاصطناعي العسكري

ردًا على الخلاف، أصدر وزير الدفاع الأمريكي “بيت هيغسيث” في يناير 2026 مذكرة إستراتيجية جديدة حددت شروطًا صارمة للتعاون مع شركات الذكاء الاصطناعي.

ونصّت المذكرة على أن كافة الشركات المتعاقدة مع الجيش يجب أن تسمح باستخدام نماذجها في “أي غرض قانوني يتعلق بالأمن القومي” دون قيود تفرضها تلك الشركات.

ورأت الإدارة الأمريكية أن القيود الأخلاقية التي تضعها بعض الشركات قد تعوق العمليات العسكرية أو تُعرّض حياة الجنود للخطر.

وفي المقابل، رفضت أنثروبيك التنازل عن أمرين عدتهما “خطين أحمرين”، وهما تطوير أسلحة ذاتية التشغيل بالكامل دون إشراف بشري، واستخدام الذكاء الاصطناعي في المراقبة الجماعية للمواطنين داخل الولايات المتحدة.

عقوبات حكومية ضخمة

بلغ التوتر ذروته في اجتماع عُقد في 24 من فبراير 2026 بين وزير الدفاع والرئيس التنفيذي للشركة “داريو أمودي”.

وخلال الاجتماع، قدمت الحكومة إنذارًا نهائيًا يطالب الشركة بالموافقة على شروطها قبل مساء 27 من فبراير.

لكن الشركة رفضت الطلب رسميًا، مؤكدةً أنها لا تستطع إزالة الضوابط الأمنية من نماذجها في ظل الأخطار التقنية والأخلاقية المرتبطة باستخدام الذكاء الاصطناعي في العمليات القتالية.

وبعد انتهاء المهلة، اتخذت الإدارة الأمريكية سلسلة إجراءات غير مسبوقة تجاه الشركة؛ فقد أصدر الرئيس الأمريكي دونالد ترامب أمرًا بوقف استخدام تقنيات الشركة في كافة الوكالات الفيدرالية، كما صنف وزير الدفاع الشركة على أنها تُعد “خطرًا على سلسلة الإمداد للأمن القومي”.

ويعد هذا التصنيف عادة مخصصًا للشركات الأجنبية المرتبطة بخصوم الولايات المتحدة، كما حدث مع شركة هواوي الصينية قبل سنوات، كما شمل القرار حظرًا ثانويًا يمنع الشركات المتعاقدة مع الجيش الأمريكي من التعامل التجاري مع أنثروبيك. وفي المقابل، تعهدت أنثروبيك بالطعن قانونيًا في قرار الحكومة الأمريكية.

“كلود” يظهر مجددًا في الحرب مع إيران

عندما شنّت الولايات المتحدة عملية عسكرية على إيران، أفاد تقرير نشرته صحيفة واشنطن بوست بأن الجيش الأمريكي واصل استخدام نماذج “كلود” خلال العملية، بسبب اعتماد أنظمة التحليل الاستخباراتي عليها بنحو عميق.

وكانت النماذج جزءًا من نظام تحليل يعرف باسم Maven يستخدم الذكاء الاصطناعي لتحليل صور الأقمار الصناعية وتحديد الأهداف في الوقت الفعلي.

وخلال أول 24 ساعة من العمليات، تمكّن النظام من تسريع دورة التخطيط للضربات من أسابيع إلى دقائق، مع تنفيذ نحو ألف ضربة عسكرية.

ووفق دراسة صادرة عن جامعة جورج تاون، فقد استطاع فريق مكوّن من 20 محللًا باستخدام نماذج كلود أداء عمل يعادل عمل طاقم تقليدي يضم نحو 2000 موظف.

ومع خروج أنثروبيك من دائرة التعاون مع البنتاغون، تَحرك منافسوها بسرعة لملء الفراغ؛ فقد أعلنت OpenAI اتفاقًا لتشغيل نماذج ChatGPT داخل المؤسسات العسكرية الأمريكية، وكذلك عززت شركة xAI التابعة لإيلون ماسك شراكتها مع الحكومة الأمريكية دون اعتراض على الشروط المفروضة عليها، وهو ما أثار موجةً عارمةً من الانتقادات لتلك الشركات، لكن الأزمة ما زالت قائمة، وستشكّل مستقبل استخدام الذكاء الاصطناعي كسلاح فعّال في ساحات المعارك.