رفضت شركة Anthropic المتخصصة في الذكاء الاصطناعي العرض النهائي المقدم من وزارة الدفاع الأميركية (البنتاغون) لمنحها وصولاً كاملاً إلى نموذجها Claude لاستخدامه في مهام عسكرية، وذلك قبل 24 ساعة فقط من الموعد النهائي.
وأوضحت الشركة، في بيان رسمي، أنها لا ترغب في استخدام نموذجها للتجسس على الأميركيين أو في مهام عسكرية مميتة.
وقال داريو أمودي، الرئيس التنفيذي لـAnthropic، إن “المحادثات مع البنتاغون لم تُحرز تقدماً يُذكر”.
وكانت وزارة الدفاع قد حددت يوم الجمعة موعدًا نهائيًا للسماح بالاستخدام الكامل للنموذج، وفقًا لما أورده موقع Axios.
مخاوف بشأن بنود العقد
وأشارت Anthropic إلى أن بنود العقد لا تزال غير واضحة بما يكفي لمنع استخدام الذكاء الاصطناعي في المراقبة الجماعية أو في الأسلحة ذاتية التشغيل بالكامل، كما أكدت أن الصياغة “التوافقية” الجديدة تتضمن شروطاً قانونية قد تسمح بتجاوز الضمانات في أي وقت.
ورغم رفض العرض بصيغته الحالية، شددت الشركة على أنها لن تنسحب من المفاوضات، وتتوقع استمرار الحوار قريبًا. ويتمحور الخلاف الأساسي حول القيود المفروضة على استخدام الذكاء الاصطناعي، خاصة فيما يتعلق بحظر مراقبة الأميركيين والأسلحة ذاتية التشغيل.
اقرأ أيضًا: قطر تستثمر في شركة Anthropic مطورة نماذج الذكاء الاصطناعي «Claude»
تحذيرات باستخدام قانون الإنتاج الدفاعي
من جانبه، حذر وزير الدفاع الأميركي بيت هيغسيث من احتمال اللجوء إلى قانون الإنتاج الدفاعي لإجبار الشركة على توفير تقنياتها دون قيود؛ إلا أن خبراء قانونيين أشاروا إلى أن مثل هذه الخطوة قد تواجه طعونًا قضائية وتعقيدات قانونية.
ولا تقتصر قاعدة البنتاغون التي تنص على ضرورة إتاحة الذكاء الاصطناعي “لجميع الأغراض المشروعة” في الأعمال السرية على Anthropic وحدها، إذ وقعت شركة xAI بالفعل عقدًا وفق هذه القاعدة، كما تتسارع المحادثات لإشراك شركتي OpenAI وGoogle في مشاريع حكومية سرية مرتبطة بالذكاء الاصطناعي.


















