O Departamento de Eficiência do Governo do governo Trump (DOGE) está usando uma nova ferramenta de IA para reduzir as regras federais, de acordo com o Washington Post. O projeto tem como objetivo remover até metade de todos os regulamentos governamentais até janeiro de 2026. Target=”_ Blank”> encontra regras que não podem mais ser exigidas por lei . A Casa Branca diz que isso aumentará a eficiência e reduzirá os encargos econômicos. No entanto, o plano enfrenta nítidas críticas sobre sua legalidade e velocidade.

Especialistas também se preocupam em usar uma IA não testada para tarefas vitais do governo. A ferramenta já foi testada em agências federais, provocando debate sobre sua precisão e as possíveis consequências da governança automatizada em uma escala tão grande. Deregulation

The initiative is the technological spearhead of a policy first outlined in a January 31 executive Ordem do presidente Trump , que exigiu um enorme esforço de desregulamentação”10 para 1″em todo o governo. A ferramenta de IA da DOGE foi projetada para cumprir esta diretiva analisando algoritmicamente todo o corpo de regras federais. href=”https://www.washingtonpost.com/documents/857b6c65-0690-4b3c-b438-e3dc1dc87340.pdf”Target=”_ Blank”> Apresentação interna do PowerPoint . O objetivo declarado é remover 100.000 regras-metade do código regulatório-no primeiro aniversário da inauguração. Também sugere que a ferramenta pode reduzir cerca de 3,6 milhões de horas de revisão humana necessárias para essa tarefa a apenas 36 horas.

A Casa Branca apoiou publicamente os objetivos do projeto. O porta-voz Harrison Fields confirmou que”todas as opções estão sendo exploradas para cumprir as promessas de desregulamentação do presidente”. Ele elogiou a iniciativa, afirmando: “Os especialistas em Doge que criam esses planos são os melhores e mais brilhantes do ramo e estão embarcando em uma transformação de sistemas governamentais nunca antes de atuar antes, para provar seu conceito e a ferramenta de Ai já foi pilotada no departamento do Departamento e do Departamento de Habitação e Urban (HUD). No HUD, o sistema supostamente tomou “decisões em 1.083 seções regulatórias” em menos de duas semanas, enquanto no CFPB foi usado para escrever “100% das desregulamentos”.

No entanto, o lançamento inicial não ficou sem problemas significativos. Um funcionário do HUD, falando anonimamente, disse ao Washington Post que a IA cometeu vários erros, sinalizando incorretamente os regulamentos legalmente sólidos como estando fora do estatuto que deveria estar analisando. DOGE. Desde a sua criação, a agência foi criticada por contornar os protocolos de segurança e compras padrão enquanto buscam vasto acesso a dados.

A própria segurança operacional do departamento tem sido questionável. Em fevereiro, seu site público ficou com um banco de dados desprotegido, permitindo que ele seja desfigurado por horas. Esse incidente levantou questões iniciais sobre a competência técnica do grupo recém-formado.

de maneira mais alarmante, as credenciais de Kyle Schutt, um engenheiro que trabalham para DOGE e CISA, foram encontradas em vários malware de maio em maio, indicando que seus dispositivos foram comprometidos por informações sobre malhas. Um funcionário da NLRB alegou que Doge facilitou uma violação de dados, instruindo a equipe a evitar a criação de registros de suas atividades-uma grande violação das melhores práticas de segurança. O grupo supostamente usou o Grok Chatbot da Xai para analisar dados federais e lançou planos para implantar”agentes de IA”para substituir o trabalho de até 70.000 funcionários federais. Nicholas Bagley, um especialista em direito administrativo; A lei exige que as agências forneçam uma explicação fundamentada para a mudança de regras, um padrão que uma IA de caixa preta pode ter dificuldade para atender. Os estudiosos do direito sugerem que simplesmente afirmar que uma IA considerou uma regra desnecessária provavelmente falharia em um desafio judicial, potencialmente vinculando o esforço de desregulamentação em litígios.

A legalidade de usar uma IA para fazer essas determinações não é testada. O ex-advogado-chefe do Doge, James Burnham, reconheceu a abordagem nova, afirmando: “A implantação criativa da inteligência artificial para promover a agenda regulatória do presidente é uma estratégia lógica para fazer progressos significativos nessa quantidade finita de tempo, sugerindo que a equipe sabia que estava pressionando os limites legais e tecnológicos. O especialista em segurança cibernética Bruce Schneier descreveu o desmantelamento sistemático do grupo de protocolos de segurança como semelhante a”um ataque cibernético nacional… o desmantelamento sistemático de medidas de segurança que detectariam e impediriam o uso indevido”. Esse contexto torna a implantação de uma nova e poderosa ferramenta de IA ainda mais preocupante.

A viabilidade do plano também está em dúvida. Funcionários federais e especialistas em contratação dizem que a complexidade dos regulamentos entre as agências dificulta a implantação em escala. A noção de substituir 70.000 empregos pela tecnologia atual de IA foi descartada como irrealista. Não está claro se uma IA não testada pode lidar com a nuance da lei federal ou se essa abordagem automatizada de alta velocidade e governança criará mais problemas do que resolve.