Trump-administrationen utvecklar i hemlighet en centraliserad plattform för konstgjord intelligens,”AI.GOV”, planerad för en 4 juli-lansering, i en betydande upptrappning av sin kampanj för att bädda in AI i den amerikanska regeringen. Leaked code and internal documents first reported by 404 Media reveal the General Services Administration (GSA) is spearheading the project, which aims to “accelerate government innovation with AI”with a Svit med integrerade verktyg.
Detta initiativ representerar en viktig förändring och flyttar administrationens AI-ambitioner från området för kontroversiella, ad-hoc-projekt till en formell, regeringsomfattande infrastruktur. Helmed av tidigare Tesla-ingenjör och nuvarande GSA-teknikchef Thomas Shedd syftar plattformen till att integrera och effektivisera åtkomst till kraftfulla modeller från en skiffer av tekniska jättar. According to code posted to GitHub before taken down again, the project includes not only OpenAI, Google, and Anthropic, but also shows work to incorporate Amazon Web Services’ Bedrock and Meta’s Llama.
Plattformen är utformad för att ge mer än bara åtkomst; Den kommer också att innehålla en analytisk instrumentpanel för att övervaka hur mycket olika regeringsteam använder dessa AI-verktyg. The project formalizes Shedd’s previously stated goal to “AI-ify”much of the government, an agenda that has already been met with deep skepticism and what one source described as a “pretty unanimously negative”reaction from some government employees.
This move institutionalizes a sprawling, top-down push for AI adoption, raising profound questions about oversight, security, and the growing influence of Big Tech within the federal bureaucracy.
From ‘DOGE’ Experiments to Official Policy
The structured development of ai.gov stands in stark contrast to the administration’s earlier, more chaotic forays into AI, which drevs till stor del av Elon Musks avdelning för regeringseffektivitet (DOGE).
Dessa ansträngningar kännetecknades av aggressiv taktik och etiskt förfalskade experiment som ofta verkade kringgå standardprotokoll. Till exempel avslöjade rapporter från maj 2025 att DOGE använde Musks egen XAI-chatbot, Grok, för internt regeringsarbete och ledde till att ränta-larm.
Vidare sträckte sig gruppens ambitioner direkt till den federala arbetskraften. En Doge-kopplad rekryterare beskrev ett projekt för att distribuera AI-agenter för att automatisera federala jobb. Rekryteraren, Anthony Jancso, hävdade att ansträngningen skulle kunna frigöra motsvarande”minst 70 000 FTE för högre påverkan under nästa år.”
Detta noggrant formade mål var uppfyllda med skarpa hån inom ett tekniskt ALUMNI-nätverk, där en kritiker blottly retorted,”Du är komplicerad i att skona 70K-federala anställda och ersättande av skiten autoc-autokorrect. Initiativet ai.gov, även om det är mer formellt, verkar vara den policydrivna efterträdaren till dessa kontroversiella början.
En hög insatser för regeringskontrakt
Skapandet av en centraliserad AI-marknad som AI.Gov sker inte i ett vakuum. Det fungerar som en formell arena för en tävling med höga insatser bland tekniska jättar, alla kämpar för lukrativa och inflytelserika regeringskontrakt. Dessa företag lobbyar aktivt för att forma amerikansk politik, ofta med olika strategier. OpenAI har till exempel proaktivt lanserat en specialiserad”Chatgpt Gov”-produkt på Microsofts säkra moln och dess VD, Sam Altman, har uttalat sitt företag och administrationen,”Våra intressen är mycket anpassade.”AI-policy och öppnar nya möjligheter-det är en dygdig cykel.”
Detta kompliceras ytterligare av försvarssektorn. Alexandr Wang, VD för Data-Mabeling Firm Scale AI, har kraftfullt försvarat sitt företags omfattande arbete med Pentagon som ett”moraliskt imperativ”. Wang talade vid Center for Strategic and International Studies och hävdade att det kommer att vara absolut nödvändigt för USA att hålla sig framåt.”AI.GOV-plattformen kommer att bli den nexus där dessa konkurrerande kommersiella och geopolitiska intressen konvergerar.
Ett skugga av säkerhetsförlopp och etiska larm
Trots dess officiella GSA-stöd, AI.GOV-projektet fångar bagaget i administrationen av administrationen TRYBLEKNING PÅ SÄKERHET. Samma grundläggande frågor om datasekretess, övervakning och ansvarsskyldighet som plågade DOGE-initiativen gäller nu i en mycket större, institutionell skala. Användningen av GROK för att analysera regeringens uppgifter beskrevs av Albert Fox Cahn från övervakningsteknikövervakningsprojektet som”lika allvarligt ett integritetshot som du får.”Denna oro kommer utan tvekan att sträcka sig till alla modeller som är integrerade i den nya plattformen.
Denna uppfattning förstärks av trovärdiga anklagelser om allvarliga säkerhetsprotokollöverträdelser. En visselpipa från National Labour Relations Board lämnade in en svarad förklaring som hävdade att DOGE-personal krävde molntillträde på hög nivå och instruerade uttryckligen personalen”att det inte skulle finnas några loggar eller poster som gjordes av de konton som skapats för DOGE-anställda”, en fantastisk brott mot grundläggande cybersäkerhetspraxis. Dessa tidigare åtgärder skapar en djupt sittande misstro som den nya, mer polerade AI.gov-plattformen nu måste övervinna.
I slutändan markerar AI.GOV-initiativet mognaden av Trump-administrationens AI-ambitioner. Den signalerar en strategisk övergång från kaotiska, personlighetsdrivna experiment till ett hållbart, institutionaliserat politiskt ramverk.
Men denna formalisering löser inte de underliggande spänningarna mellan innovation, nationell säkerhet och de etiska skyddsspåren som krävs för sådan kraftfull teknik. Plattformens lansering den 4 juli kommer att vara ett kritiskt ögonblick och avslöjar om detta centraliserade tillvägagångssätt verkligen kan påskynda regeringens innovation eller om den helt enkelt kommer att förstärka de kontroverser som har definierat administrationens AI-tryck från början.