AI-rivalene Anthropic og Openai kjemper for fotfeste i Washington D.C. Begge tilbyr nå sine beste AI-verktøy til den amerikanske regjeringen for bare en dollar. Avtalene, som ble gjort i august 2025, gir føderale arbeidere og lovgivere tilgang til bedriftsversjonene av Claude og Chatgpt.
Målet er ikke kortsiktig overskudd, men langsiktig kraft. Ved å få verktøyene sine brukt mye i regjeringen, håper hvert firma å veilede fremtidige AI-regler og låse inn en viktig fordel i forhold til sine rivaler i offentlig sektor. Google er også angivelig i samtalene for en lignende dypt rabatt på
talks for en lignende Adopsjon
Slaget for føderal AI-dominans antente i begynnelsen av august, etter at U.S. General Services Administration (GSA) godkjente Openai, Anthropic og Google som leverandører 5. august. Dette satte scenen for en rask serie med strategiske skuespill, Facilated av GSAs streamlinjerte procurement. src=”https://winbuzzer.com/wp-content/uploads/2024/12/antropic-ai-safety.jpg”>
Bare en dag senere fyrte Openai åpningsskuddet. 6. august kunngjorde selskapet en Landmark-partnerskap med GSA . Avtalen tilbyr sin ChatGPT Enterprise-plattform til hele den føderale utøvende grenen for bare $ 1 per byrå i et år.
Initiativet er i samsvar med Trump-administrasjonens AI-handlingsplan, som tar sikte på å integrere avanserte AI-verktøy på tvers av myndighetene og redusere tiden brukt på papirarbeid. Openai leverer også pedagogiske verktøy og et dedikert statlig brukerfellesskap for å støtte utrullingen.
For ikke å bli overgått, anthropic leverte en rask og avgjørende respons. 12. august avduket selskapet sin egen nesten identiske avtale, men med en Notable Broader Scope . Selskapet tilbyr sitt”Claude for Government”-produkt for samme nominelle avgift.
Avgjørende utvider Anthropic tilbudet utover den utøvende grenen for å dekke alle tre søylene i den amerikanske regjeringen. Dette inkluderer senatorer, medlemmer av kongressen og toppdommere, en strategisk ekspansjon som også tar sikte på å legge inn teknologien på tvers av lovgivningsmessige og rettslige grener.
Disse back-to-back-kunngjøringene har forvandlet AI-landskapet i Washington, og signalisert en ny og aggressiv front i krigen for markedsoverherredømme. Konkurransen er innstilt på å intensivere ytterligere, ettersom rapporter indikerer at Google også forhandler om en lignende ordning for sin Gemini Chatbot.
Dette setter opp et treveis løp for å bli den grunnleggende AI-leverandøren for den amerikanske regjeringen, og markedsføres og markedsføres fra kommersielle markeder direkte i hjertet av føderal makt og strategi.
. Aksje
. Aksje
Rock-Bottom-prislappen er en klar strategisk gambit, og prioriterer markedsinntrengning og innflytelse over umiddelbare inntekter. For selskaper som Anthropic og Openai, som brenner gjennom kontanter til historiske priser for å finansiere utvikling, er en $ 1-avtale en beregnet investering i langsiktig dominans. Hovedmålet er å oppnå utbredt adopsjon og dypt innebygde teknologien sin innen føderale arbeidsflyter.
Ved å få verktøyene sine i hendene på tusenvis av offentlige ansatte, får disse firmaene et uvurderlig laboratorium i den virkelige verden. De kan lære førstehånds hvilke applikasjoner som er mest populære og effektive på tvers av forskjellige byråer, fra å forbedre daglig produktivitet til å takle komplekse analytiske oppgaver.
Denne førstehånds kunnskapen er en kraftig konkurransedyktig eiendel. Den informerer fremtidig produktutvikling og posisjonerer dem til å tilby svært skreddersydde-og langt mer lukrative-løsninger når disse første ett-årsavtalene utløper. Innsikten som er oppnådd kan føre til helt nye bedriftsprodukter og en betydelig fordel i å sikre fremtidige fullpris regjeringskontrakter.
Utover fremtidig salg er den ultimate prisen innflytelse. Begge selskapene driver med en sofistikert kampanje for å forme AI-politikken fra innsiden. De har en historie med aktivt lobbyvirksomhet Det hvite hus og kongressen på alt fra eksportkontroll til innenlandsk regulering.
Ved å bli de facto AI-leverandøren for føderale byråer, flytter de fra lobbyister utenfor til essensielle partnere. Når myndighetsansatte begynner å stole på plattformene sine, kan selskapene bidra til å definere selve standardene for sikkerhet, etikk og ansvarlig distribusjon.
Dette gir dem en kraftig og direkte stemme i samtalene som vil avgjøre fremtiden for AI-regulering, nasjonale sikkerhetsprotokoller og anskaffelsesbeslutninger. I dette høye innsatsspillet er det langt mer verdifullt å formere reglene. href=”https://www.antropic.com/news/claude-is-now-available-on-the-gsa-schedule”target=”_ blank”> dramatisk med å få frem til anskaffelsesprosessen
byrået til å få et mulig å få en rent for å få en rent for å få en rent. Josh Gruenbaum, kommisjonær for Federal Acquisition Service, forklarte begrunnelsen,
Denne strategien tar sikte på å utnytte markedskreftene for å sikre at regjeringen har tilgang til de mest sikre og dyktige verktøyene. I en uttalelse støttet antropisk administrerende direktør Dario Amodei denne visjonen og sa:”Amerikas AI-ledelse krever at våre regjeringsinstitusjoner har tilgang til de mest dyktige, sikre AI-verktøyene som Push for AI-adopsjon stemmer overens med Trump-administrasjonens AI-handlingsplan, som søker å Modern med ny teknologi AI”eller modeller med opplevde ideologiske skjevheter fra regjeringskontrakter, en policy som leverandørene vil måtte ta opp. Sikkerhet er fortsatt en viktig bekymring for alle parter. En talsperson for GSA bekreftet at regjeringen tar en forsiktig, sikkerhetsmessig tilnærming for å beskytte sensitiv informasjon, og sa: “Regjeringen tar en forsiktig, sikkerhets første tilnærming til AI. Dette sikrer at sensitiv informasjon forblir beskyttet mens de gjør det mulig å utnytte ARI-drevet.” for å gjøre det mulig å gjøre det. Dette er et avgjørende skille ettersom disse selskapene utdyper sine forhold til den amerikanske regjeringen, som allerede inkluderer betydelige militære og etterretningskontrakter. I juli 2025 tildelte Pentagon major AI-tilbud til Google, Openai og antropic for å gi drivstoff til forsvar, og skapte en parallellbane for militær adopsjon.
Anthropic har tidligere sammenstøt med Det hvite hus ved å motsette seg føderal planlegging av statlige AI-lover. Nå, ved å konkurrere om pris og tilgang, fører disse firmaene en direkte kampanje for langsiktig dominans i offentlig sektor.