Trump-administrationens avdelning för regeringseffektivitet (DOGE) använder ett nytt AI-verktyg för att skära ned federala regler, enligt Washington Post. Projektet syftar till att ta bort upp till hälften av alla statliga föreskrifter i januari 2026.
baserat i Washington,”Doge Ai Deregulation Decision Tool” hittar regler som kanske inte längre krävs enligt lag . Vita huset säger att detta kommer att öka effektiviteten och minska ekonomiska bördor. Planen står emellertid inför skarp kritik över dess laglighet och hastighet.
Experter oroar sig också för att använda en otestad AI för viktiga regeringsuppgifter. The tool has already been tested at federal agencies, sparking debate over its accuracy and the potential consequences of automated governance on such a massive scale.
DOGE Deploys AI to Automate Deregulation
Initiativet är det tekniska spetsen för en policy som först beskrivs i en , som uppstod en massiv”10-till-1″avregleringsinsats över hela regeringen. Doges AI-verktyg är utformat för att uppfylla detta direktiv genom att algoritmiskt analysera hela kroppen av federala regler.
som kallas”Doge AI-avregleringsbeslutsverktyget,”Systemet har till uppgift att kamma genom cirka 200 000 förordningar för att identifiera kandidater för eliminering, enligt en
Presentationen gör djärva fordringar och projicerar AI kan rädda den amerikanska ekonomin 3,3 biljoner dollar årligen. Det föreslår också att verktyget kan minska uppskattningsvis 3,6 miljoner arbetstimmar av mänsklig granskning som krävs för en sådan uppgift till bara 36 timmar.
Vita huset har offentligt stött projektets mål. Talesman Harrison Fields bekräftade att”alla alternativ undersöks för att uppnå presidentens avregleringslöften.”Han berömde initiativet och konstaterade,”DOGE-experterna som skapar dessa planer är de bästa och ljusaste i branschen och inleder ett aldrig tidigare förfallet omvandling av regeringssystem,”inramar det som ett revolutionärt steg.
för att bevisa sitt koncept, AI-verktyget har redan piloterats vid avdelningen för bostäder och urban utveckling (HUD) och det konsumtiska skyddet. På HUD fattade systemet enligt uppgift”beslut på 1 083 regleringssektioner”på under två veckor, medan det vid CFPB användes för att skriva”100% av avreglering”.
Men den första utrullningen har inte varit utan betydande problem. A HUD employee, speaking anonymously, told The Washington Post that the AI made several errors, incorrectly flagging legally sound regulations as being outside of the statute it was supposed to be analyzing.
A Pattern of Security Lapses and Controversial Methods
This aggressive push for AI-driven deregulation fits a broader pattern of controversial actions by DOGE. Sedan starten har byrån kritiserats för att förbikoppla standardsäkerhets-och upphandlingsprotokoll medan de söker stor datatillgång.
Avdelningens egen operativa säkerhet har varit tveksam. I februari lämnades dess offentliga webbplats med en oskyddad databas, vilket gjorde att den kunde bli avstängd i timmar. Denna incident väckte tidiga frågor om den tekniska kompetensen hos den nybildade gruppen.
mer oroande, referenser av Kyle Schutt, en ingenjör som arbetar för både DOGE och CISA, hittades i flera malware-data i maj, vilket indikerar att hans enheter hade äventyrats av info-staler malware. En NLRB-tjänsteman hävdade att DOGE underlättade ett dataöverträdelse och instruerade personalen att undvika att skapa loggar över sin verksamhet-en viktig kränkning av bästa bästa praxis.
Doges AI-ambitioner sträcker sig utöver deregulering. Gruppen har enligt uppgift använt XAI: s Grok Chatbot för att analysera federala data och har flyttat planer på att distribuera”AI-agenter”för att ersätta arbetet med upp till 70 000 federala anställda.
Experter ifrågasätter laglighet och genomförbarhet
Hastighet och skala för doges plan har dragit skarp kritik från laglighet och cybersäkerhet. Nicholas Bagley, en administrativ lagekspert.
Denna lag kräver att byråer ger en motiverad förklaring för att ändra regler, en standard som en svartbox AI kan kämpa för att möta. Juridiska forskare föreslår att helt enkelt att ange en AI som fann att en regel är onödig skulle sannolikt misslyckas med en domstolsutmaning, vilket potentiellt kan binda upp avregleringsinsatsen i rättstvister.
Lagligheten med att använda en AI för att göra dessa beslut är otestade. Former DOGE chief attorney James Burnham acknowledged the novel approach, stating, “creative deployment of artificial intelligence to advance the president’s regulatory agenda is one logical strategy to make significant progress in that finite amount of time,”suggesting the team knew it was pushing legal and technological boundaries.
The initiative exists in a climate of distrust sown by DOGE’s previous actions. Cybersecurity-experten Bruce Schneier har beskrivit gruppens systematiska demontering av säkerhetsprotokoll som besläktade med”en nationell cyberattack… den systematiska demonteringen av säkerhetsåtgärder som skulle upptäcka och förhindra missbruk.”Detta sammanhang gör utplaceringen av ett nytt, kraftfullt AI-verktyg ännu mer om.
Planens genomförbarhet är också tveksam. Federala anställda och upphandlande experter säger att komplexiteten i föreskrifter mellan byråer skulle göra skalad utplacering svår. Uppfattningen om att ersätta 70 000 jobb med den nuvarande AI-tekniken avskedades som orealistiska.
När Doge flyttar för att utbilda byråpersonal i det nya verktyget kvarstår de grundläggande frågorna. Det är oklart om en otestad AI kan hantera nyansen av federal lag eller om denna höghastighet, automatiserad strategi för styrning kommer att skapa fler problem än den löser.