Съдът отказа да спре включването на Anthropic в черния списък на Пентагона
Решението оставя AI компанията извън договорите с Министерството на отбраната на САЩ, докато съдебният спор продължава, като магистратите дават приоритет на националната сигурност пред финансовите аргументи на компанията
,fit(1001:538)&format=webp)
Федерален апелативен съд във Вашингтон отказва да спре временно решението на Пентагона да включи AI компанията Anthropic в списъка със „системен риск за веригата на доставки“. Това решение, взето на фона на паралелни съдебни процеси, подчертава нарастващата чувствителност по темата за контрола върху изкуствения интелект, съобщава CNBC.
Това развитие е в пряко противоречие с по-ранно решение на федерален съд в Сан Франциско, който блокира опита на администрацията на Доналд Тръмп да наложи пълна забрана върху използването на модела Claude.
В резултат възниква сложна юридическа ситуация: Anthropic е изключена от договори с Department of Defense, но продължава да работи с други федерални институции. Отбранителните подизпълнители нямат право да използват Claude в проекти, свързани с Пентагона.
Аргументът на съда е показателен за приоритетите на Вашингтон. Според магистратите балансът накланя везната в полза на правителството, тъй като става въпрос не просто за финансов риск за една компания, а за начина, по който държавата управлява достъпа до критична AI технология в условията на активен военен конфликт. Съдът признава, че Anthropic вероятно ще понесе щети, но ги определя като основно финансови и недостатъчни, за да оправдаят блокиране на мярката.
Конфликтът започва през март, когато Пентагонът официално класифицира Anthropic като риск за веригата на доставки. Това е прецедент за американска компания, тъй като подобни обозначения обикновено се прилагат към чуждестранни субекти. Малко преди това министърът на отбраната Пийт Хегсет публично обявява позицията, а президентът Тръмп нарежда на федералните агенции да прекратят използването на технологията в срок от шест месеца.
Решението изненадва институциите, тъй като Anthropic вече е дълбоко интегрирана в американската инфраструктура. Компанията се нарежда сред първите, внедрили модели в класифицираните мрежи на Пентагона, и работи в екосистема с изпълнители като Palantir.
Подписаният договор на стойност 200 млн. долара и последвалите разговори за внедряване на Claude в платформата GenAI.mil показват, че Anthropic е била разглеждана като стратегически партньор до последния момент.
Разпадът на отношенията произтича от фундаментален спор за контрол. Пентагонът настоява за неограничен достъп до моделите за всички законни цели, докато Anthropic изисква гаранции, че технологията няма да се използва за автономни оръжия или масово вътрешно наблюдение. Липсата на компромис довежда спора до съда.
Anthropic оспорва решението като противоконституционно и политически мотивирано, но съдът във Вашингтон отхвърля аргумента, че правото на свободно изразяване е засегнато, като посочва, че компанията не е доказала реално ограничаване на дейността си. Същевременно магистратите подчертават, че делото трябва да бъде разгледано по ускорена процедура, което показва, че залогът надхвърля конкретния корпоративен спор.
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)