AI-säkerhetsföretaget Anthropic står inför värme från Trump-administrationen efter att det vägrade att låta dess modeller användas för vissa brottsbekämpande ändamål.
Enligt SEMAFOR , företaget nyligen deklarerade från Federal Contractor för att dess eumering-politik.
Detta har ilskat tjänstemän i Vita huset, som förväntar sig att amerikanska AI-företag ska fungera som patriotiska partners.

Denna strategi syftar till att bädda in sin teknik djupt inom regeringens arbetsflöden. Genom att bli oundgänglig hoppas de kunna forma framtida AI-politik och säkra lukrativa, fullprisavtal längs linjen. General Services Administration (GSA) har uppmuntrat detta och försöker främja en dynamisk marknad.
som den federala förvärvstjänstkommissionären Josh Gruenbaum förklarade:”Vi väljer inte en vinnare här. Det är nästan en marknadseffektivitet när du har den konkurrensspänningen och dynamisk för att göra dessa verktyg noggranna och sanning.”Tillgänglig.
En kollision av principer: Anthropic Rits A Line on Surveillance
Anthropics vägran att böja sina regler för brottsbekämpning har skapat en betydande rift med det vita huset. Företagets acceptabla användningspolicy förbjuder uttryckligen att använda sin AI för övervakning, inklusive Övervakning av individer utan deras samtycke .
Denna stånd är särskilt strikare än den av dess konkurrenter. OpenAI: s policy förbjuder till exempel”obehörig övervakning”, som lämnar utrymme för Lagligt sanktionerade lagstiftningsaktiviteter . Anthropics hårda linje ses av vissa inom administrationen som en moralisk bedömning av deras verksamhet.
Konflikten har fått andra AI-företag att granska sin egen politik i frågan.
Denna principiella ställning är i linje med Anthropics allmänna engagemang för säkerhet. The company’s CEO, Dario Amodei, has previously stated, “America’s AI leadership requires that our government institutions have access to the most capable, secure AI tools available,”a sentiment now being tested by political pressure.
The government, for its part, maintains a security-first posture, as a GSA spokesperson confirmed, “The government is taking a cautious, security‑first approach to AI. This ensures sensitive information förblir skyddade medan de gör det möjligt för byråer att dra nytta av AI-driven effektivitet.”
En motsägelsefulla hållning: omfamna grok medan granskning av Claude
administrationen mot antropiska kontraster med sin senaste omfamning av elon muskel. Snabbspårar den kontroversiella chatboten för federalt bruk, att vända ett förbud som infördes efter att det genererade antisemitiskt innehåll.
Groks godkännande kom trots en historia av säkerhetsbrister och etiska överträdelser. Detta beslut tyder på att administrationen kan prioritera upplevd anpassning och lojalitet framför dokumenterade säkerhetsregister, vilket skapar ett komplext och motsägelsefullt landskap för AI-leverantörer som navigerar i Washington.
Push för AI-adoption sker på flera fronter. I juli tilldelade Pentagon stora kontrakt till Google, OpenAI och Anthropic to Fuel Defense Innovation. Denna parallella militära adoptionsspår understryker teknikens djupa integration i nationell säkerhet.
Som tekniska jättar är för inflytande, den centrala frågan förblir hur man balanserar innovation med ansvarsskyldighet. Googles VD Sundar Pichai framhöll denna uppdragsdrivna strategi och noterade,”Gemini for Government ger federala byråer tillgång till vår fulla stack-strategi för AI-innovation… så att de kan leverera sina viktiga uppdrag.”
men ändå, den politiska och det vita husets krav.