في سابقة هي الأولى من نوعها، رفعت شركة الذكاء الاصطناعي Anthropic دعوى قضائية ضد الحكومة الأميركية بعد تصنيفها كـ «خطر على سلسلة التوريد»، مما جعل أدوات مثل Claude
أصبحت فجأة غير آمنة للاستخدام الحكومي.
شرارة الخلاف
الخلاف بدأ بين المدير التنفيذي داريو أمودي ووزير الدفاع بيت هيجسيث بسبب رفض الشركة السماح للجيش باستخدام أدواتها بحرية تامة، خصوصًا مع القيود على «الحروب المستقلة» و«المراقبة الشاملة للأميركيين» الموجودة في العقود.
رد واشنطن
البنتاغون صنف الشركة كأول شركة أميركية يعتبر نشاطها «خطر على سلسلة التوريد»، بينما وصفها الرئيس دونالد ترامب بأنها تُدار من قبل «متطرفين يساريين»، موجّهًا جميع الوكالات الحكومية بوقف التعامل معها فورًا.
Anthropic في المحكمة
الدعوى موجهة ضد المكتب التنفيذي للرئيس وعدد من المسؤولين بينهم هيجسيث، ووزير الخارجية ماركو روبيو، ووزير التجارة هوارد لوتنيك، إضافة إلى 16 وكالة حكومية، وتطالب بـ:
- إلغاء تصنيفها كـ «خطر على سلسلة التوريد».
- إعلان أن توجيهات الرئيس تتجاوز سلطاته الدستورية.
دعم تقني واسع
نحو 40 موظفًا من Google وOpenAI دعموا موقف الشركة، محذرين من مخاطر استخدام الذكاء الاصطناعي في الأسلحة والمراقبة بدون إشراف بشري أو ضوابط تقنية.


















