Trump-administrasjonens Department of Government Efficiency (Doge) bruker et nytt AI-verktøy for å redusere føderale regler, ifølge Washington Post. Prosjektet tar sikte på å fjerne opptil halvparten av alle regjeringsbestemmelser innen januar 2026.

“Doge Ai Deregulation Decision Tool”angivelig Finner regler som kanskje ikke lenger er påkrevd av loven . Det hvite hus sier at dette vil øke effektiviteten og kutte økonomiske byrder. Planen står imidlertid overfor skarp kritikk over lovligheten og hastigheten.

Eksperter bekymrer seg også for å bruke en uprøvd AI for viktige regjeringsoppgaver. Verktøyet er allerede testet ved føderale byråer, noe som vekket debatt om nøyaktigheten og de potensielle konsekvensene av automatisert styring i så massiv skala.

31. januar utøvende ordre fra president Trump , som ga en massiv”10-til-1″dereguleringsinnsats over hele regjeringen. Doges AI-verktøy er designet for å oppfylle dette direktivet ved å algoritmisk analysere hele organet av føderale regler.

kalt”Doge AI deregulering av beslutningsverktøyet”, har systemet i oppgave å kamme gjennom omtrent 200 000 forskrifter for å identifisere kandidater for eliminering, ifølge en Intern Doge PowerPoint-presentasjon . Det uttalte målet er å fjerne 100 000 regler-helt halvparten av reguleringskoden-i første jubileum for innvielsen.

Presentasjonen fremsetter dristige påstander, og projiserer AI kan spare den amerikanske økonomien $ 3,3 billioner årlig. Det antyder også at verktøyet kan redusere anslagsvis 3,6 millioner arbeidstimer med menneskelig gjennomgang som kreves for en slik oppgave til bare 36 timer.

Det hvite hus har offentlig støttet prosjektets mål. Talsmann Harrison Fields bekreftet at”alle alternativer blir utforsket for å oppnå presidentens løfter om deregulering.”Han berømmet initiativet, og uttalte:”Doge-ekspertene som lager disse planene er de beste og lyseste i virksomheten og legger ut på en aldri-før-prøvd transformasjon av regjeringssystemer,”Framing det som et revolusjonerende skritt. Hos HUD tok systemet angivelig”beslutninger om 1.083 reguleringsseksjoner”på under to uker, mens det på CFPB ble brukt til å skrive”100% av deregulasjoner”.

Imidlertid har den første utrullingen ikke vært uten vesentlige problemer. A HUD employee, speaking anonymously, told The Washington Post that the AI made several errors, incorrectly flagging legally sound regulations as being outside of the statute it was supposed to be analyzing.

A Pattern of Security Lapses and Controversial Methods

This aggressive push for AI-driven deregulation fits a broader pattern of controversial actions by Doge. Siden oppstarten har byrået blitt kritisert for å omgå standard sikkerhets-og anskaffelsesprotokoller mens de søker enorm datatilgang.

Avdelingens egen operasjonelle sikkerhet har vært tvilsom. I februar satt det offentlige nettstedet igjen med en ubeskyttet database, slik at den kan bli forskjøvet i timevis. Denne hendelsen reiste tidlige spørsmål om den tekniske kompetansen til den nyopprettede gruppen.

Mer alarmerende ble legitimasjonene til Kyle Schutt, en ingeniør som jobbet for både Dog og CISA, funnet i multiple plrace-datadumper i mai, noe som indikerte at enhetene hans hadde blitt kompromittert av informasjon om informasjon. En tjenestemann i NLRB hevdet Doge forenklet et datainnbrudd, og instruerte personalet om å unngå å lage logger av sine aktiviteter-et stort brudd på beste praksis for sikkerhet.

Doges AI-ambisjoner strekker seg utover deregulering. Gruppen har angivelig brukt Xai’s Grok Chatbot for å analysere føderale data og har flyttet planer om å distribuere “AI-agenter” for å erstatte arbeidet med opptil 70 000 føderale ansatte.

eksperter stiller spørsmål ved lovlighet og gjennomførbarhet

hastigheten og skalaen til Doege’s plan har dratt skarp kritisk fra Kybers og Cybers. nicholas,

Legaliteten til å bruke en AI for å gjøre disse bestemmelsene er uprøvd. Tidligere Doege-advokat James Burnham erkjente den nye tilnærmingen, og uttalte, “Kreativ distribusjon av kunstig intelligens for å fremme presidentens regulatoriske agenda er en logisk strategi for å gjøre betydelige fremskritt i den endelige tiden,”som antydet at teamet visste at det presset lovlig og teknologiske grenser.

Initiativet finnes i et klima og mistillit sådi. Cybersecurity-ekspert Bruce Schneier har beskrevet gruppens systematiske demontering av sikkerhetsprotokoller som tilsvarer”et nasjonalt nettangrep… den systematiske demonteringen av sikkerhetstiltak som vil oppdage og forhindre misbruk.”Denne konteksten gjør distribusjonen av et nytt, kraftig AI-verktøy enda mer angående.

Planens gjennomførbarhet er også i tvil. Føderale ansatte og kontraherende eksperter sier at kompleksiteten i forskrifter på tvers av byråer vil gjøre skalert utplassering vanskelig. Forestillingen om å erstatte 70 000 arbeidsplasser med nåværende AI-teknologi ble avskjediget som urealistisk.

Når Doge flytter til å trene byråansatte på det nye verktøyet, gjenstår de grunnleggende spørsmålene. Det er uklart om en uprøvd AI kan håndtere nyansen i føderal lov eller om denne høyhastighets, automatiserte tilnærmingen til styring vil skape flere problemer enn den løser.