رسميًا | البنتاجون يصنف شركة Anthropic خطرًا على سلاسل التوريد
اتخذت وزارة الدفاع الأميركية قرارًا رسميًا بتصنيف شركة Anthropic ضمن قائمة مخاطر سلسلة التوريد، في خطوة تصعيدية جاءت بعد أسابيع من الخلافات الحادة بين الطرفين حول شروط استخدام تقنيات الذكاء الاصطناعي داخل المؤسسات العسكرية. ووسعت هذه الخطوة نطاق المواجهة بين الحكومة الأميركية والشركة المطورة لنظام الذكاء الاصطناعي Claude، مع احتمالات انتقال النزاع إلى المحاكم خلال الفترة المقبلة.
- البنتاجون يصنف Anthropic خطرًا على سلاسل التوريد ويمنع استخدام Claude في العقود الدفاعية.
- الخلاف نشأ بسبب رفض Anthropic استخدام تقنياتها في أسلحة ذاتية ومراقبة جماعية.
- التصنيف قد يؤدي إلى إلغاء عقود شركات دفاعية تتعامل مع Claude.
- الشركة تستعد للطعن في القرار أمام القضاء الأميركي.
جاء القرار بعد مفاوضات طويلة لم تصل إلى اتفاق بين وزارة الدفاع والشركة؛ إذ تمسكت Anthropic بقيود صارمة على استخدام تقنياتها، بينما رأت المؤسسة العسكرية أن هذه القيود تمنح شركة خاصة قدرة كبيرة على التحكم في كيفية استخدام الحكومة لأدوات الذكاء الاصطناعي.
خلفية الخلاف مع Anthropic
نقلت صحيفة The Wall Street Journal عن مصدر مطلع أن التصنيف الجديد يعني عمليًا منع الشركات المتعاقدة مع وزارة الدفاع من استخدام Claude داخل منتجات أو أنظمة تقدم للحكومة الأميركية. يُعد هذا الإجراء شديد الحساسية في قطاع الدفاع، حيث تعتمد العديد من الشركات المتعاقدة على خدمات الذكاء الاصطناعي في تحليل البيانات وتطوير الأنظمة التقنية.
شكل هذا القرار سابقة لافتة؛ إذ يُستخدم تصنيف مخاطر سلسلة التوريد عادة ضد شركات أجنبية ترتبط بحكومات تعتبرها الولايات المتحدة خصومًا استراتيجيين. أما في هذه الحالة فقد طال التصنيف شركة أميركية تعمل داخل السوق المحلية، ما يعكس مستوى التوتر الذي وصل إليه الخلاف.
أكد الرئيس التنفيذي للشركة، داريو أمودي، أن الشركة تلقت إخطارًا رسميًا من البنتاجون بهذا القرار. وذكر في تدوينة نُشرت على موقع الشركة أن الإجراء الذي اتخذته وزارة الدفاع يفتقر إلى الأساس القانوني، وأن الشركة ترى ضرورة الطعن فيه أمام القضاء.
بدأ الخلاف عندما وضعت Anthropic قيودًا واضحة على استخدام نظام Claude داخل المشاريع الحكومية. شملت هذه القيود رفض استخدام النظام في تطوير أسلحة قاتلة ذاتية التشغيل من دون إشراف بشري مباشر، إضافة إلى رفض استخدامه في برامج المراقبة الجماعية الواسعة.
ترى الشركة أن هذه الحدود ضرورية لضمان الاستخدام المسؤول لتقنيات الذكاء الاصطناعي، خاصة مع تزايد المخاوف العالمية من استخدام هذه الأدوات في أنظمة عسكرية مستقلة قد تتخذ قرارات قاتلة من دون تدخل بشري.
تصاعد التوتر تدريجيًا خلال المفاوضات؛ إذ هددت وزارة الدفاع مرارًا باستخدام تصنيف مخاطر سلسلة التوريد إذا استمرت الشركة في رفض تعديل سياستها الخاصة بالاستخدام المقبول. وبعد إعلان Anthropic تمسكها بموقفها، مضت الوزارة قدمًا في تنفيذ التهديد.
لعب وزير الحرب الأميركي بيت هيجسيث دورًا بارزًا في هذا التصعيد؛ إذ أعلن قبل صدور القرار بأيام أن الحكومة تدرس تصنيف الشركة كمخاطر محتملة على سلسلة التوريد في قطاع الدفاع.

تداعيات قرار Anthropic على الشركات الدفاعية
فتح القرار الباب أمام تداعيات واسعة في قطاع التكنولوجيا الدفاعية. فالتصنيف يعني أن أي شركة متعاقدة مع وزارة الدفاع قد تواجه خسارة عقودها إذا استخدمت تقنيات Claude ضمن منتجاتها الموجهة للحكومة.
أشار هيجسيث في تصريحات سابقة إلى أن القيود قد تشمل حتى الشركات التي تتعامل مع Anthropic في نشاطات تجارية خارج العقود العسكرية. يعني هذا أن أي ارتباط تجاري مع الشركة قد يعرض الشركات الدفاعية لمخاطر فقدان عقود حكومية. أثارت هذه التصريحات جدلاً قانونيًا واسعًا؛ إذ ترى Anthropic أن توسيع نطاق العقوبات بهذا الشكل قد يتجاوز حدود القانون المنظم لعقود الدفاع الأميركية.
وفي خضم هذا التوتر تدخل البيت الأبيض أيضًا في القضية. فقد حدد الوزير هيجسيث والرئيس الأميركي ترامب مهلة زمنية مدتها ستة أشهر لإزالة أنظمة Claude من البنية التقنية للحكومة الأميركية. تبدو عملية إزالة هذه الأنظمة معقدة داخل بعض المؤسسات، خاصة في القطاع العسكري الذي بدأ يعتمد بشكل متزايد على أدوات الذكاء الاصطناعي في تحليل المعلومات الاستخباراتية وتقييم البيانات.
أظهرت تقارير إعلامية حديثة أن أدوات تحليل استخباراتية تعتمد على Claude لعبت دورًا مهمًا في العمليات العسكرية الأميركية الأخيرة ضد إيران. ارتبطت هذه التقارير بالضربة الصاروخية التي استهدفت المرشد الأعلى الإيراني علي خامنئي، حيث أشارت معلومات متداولة إلى أن أنظمة تحليل مدعومة بالذكاء الاصطناعي ساعدت في إنجاح العملية.
مع استعداد Anthropic للطعن في القرار أمام القضاء، يتجه هذا النزاع ليصبح واحدًا من أبرز المواجهات القانونية في قطاع الذكاء الاصطناعي. وقد تحدد نتيجة هذه المواجهة شكل العلاقة المستقبلية بين شركات الذكاء الاصطناعي والمؤسسات العسكرية في الولايات المتحدة، خاصة مع توسع استخدام هذه التقنيات في مجالات الأمن والدفاع.
?xml>