Według Washington Post Departamentu Rządowego Departamentu Rządowego Administracji Trumpa używa nowego narzędzia AI do cięcia przepisów federalnych. Projekt ma na celu usunięcie do połowy wszystkich przepisów rządowych do stycznia 2026 r.
„Narzędzie deregulacyjne Doge AI” podobno znajduje reguły, które mogą być już wymagane przez prawo . Biały Dom twierdzi, że zwiększy to wydajność i zmniejszy obciążenia gospodarcze. Jednak plan stoi w obliczu ostrej krytyki jego legalności i szybkości.
Eksperci również martwią się również o użycie niesprawdzonej sztucznej inteligencji do niezbędnych zadań rządowych. Narzędzie zostało już przetestowane w agencjach federalnych, wywołując debatę na temat jej dokładności i potencjalnych konsekwencji zautomatyzowanego zarządzania w tak ogromnej skali.
defopt. Deregulacja
Inicjatywa jest technologiczną grotem polityki po raz pierwszy opisanej w
Prezentacja składa odważne roszczenia, przewidując AI może uratować amerykańską gospodarkę 3,3 biliona dolarów rocznie. Sugeruje to również, że narzędzie może zmniejszyć około 3,6 miliona godzin ludzkiego przeglądu wymaganego do takiego zadania do zaledwie 36 godzin.
Biały Dom publicznie poparł cele projektu. Rzecznik Harrison Fields potwierdził, że „wszystkie opcje są badane w celu osiągnięcia obietnic deregulacji prezydenta”. Pochwalił inicjatywę, stwierdzając: „Eksperci Doge, tworzący te plany, są najlepsi i najzdolniejsi w branży i rozpoczynają nigdy wcześniej nietrzymaną transformację systemów rządowych,„ określając ją jako rewolucyjną. W HUD system podobno podjął „decyzje dotyczące 1083 sekcji regulacyjnych” w ciągu dwóch tygodni, podczas gdy w CFPB zastosowano go do napisania „100% deregulacji”. Jednak początkowe wdrożenie nie było pozbawione istotnych problemów. Pracownik HUD, mówiąc anonimowo, powiedział The Washington Post, że AI popełniło kilka błędów, niepoprawnie oznaczając legalnie rozsądne przepisy jako poza ustawą, że miało to analizować.
Wzór zabezpieczeń i kontrowersyjnych metod
To agresywne naciśnięcie Ai-dryvive dreegulation pasuje do szerokopasmowej akcji. Od samego początku agencja była skrytykowana za ominięcie standardowych protokołów bezpieczeństwa i zamówień, jednocześnie poszukiwania ogromnego dostępu do danych.
Własne bezpieczeństwo operacyjne działu było wątpliwe. W lutym jego publiczna strona internetowa została niechroniona baza danych, umożliwiając jej zniesienie przez wiele godzin. Ten incydent wywołał wczesne pytania dotyczące kompetencji technicznych nowo utworzonej grupy.
Bardziej niepokojąco poświadczenia Kyle’a Schutta, inżyniera pracującego zarówno dla Doge, jak i CISA, znaleziono w wielu zrzutach z powodu złośliwego zrzutu danych w maju, wskazując, że jego urządzenia zostały naruszone przez informacje o złośliwym. Urzędnik NLRB twierdził, że Doge ułatwił naruszenie danych, instruując personel, aby uniknąć tworzenia dzienników ich działań-poważne naruszenie najlepszych praktyk bezpieczeństwa.
Ambitacje AI Doge wykraczają poza deregulację. Grupa podobno wykorzystała Grok Chatbot XAI do analizy danych federalnych i podjęła plany wdrożenia „agentów AI” w celu zastąpienia pracy do 70 000 pracowników federalnych.
Eksperci kwestionują legalność i wykonalność
Szybkość i skala planu Doge przyciągnęły ostrą krytykę prawnej i cyberbezpieczeństwa. Nicholas Bagley, ekspert od prawa administracyjnego, zauważony , że uchylanie przepisów federalnych jest zarządzana przez procedurę administracyjną, a wielką próba nietopi się.
To prawo wymaga, aby agencje przedstawiły uzasadnione wyjaśnienie zmieniających się zasad, standard, w którym AI Black-Box może się zmagać. Uczeni prawni sugerują, że zwykłe stwierdzenie, że AI uznało zasadę niepotrzebną, prawdopodobnie zawiodłaby wyzwanie sądowe, potencjalnie wiązając wysiłki deregulacyjne w sporach sądowych.
Legalność stosowania AI do dokonywania tych ustaleń jest niesprawdzona. Były główny prokurator Doge James Burnham uznał nowe podejście, stwierdzając: „Kreatywne wdrożenie sztucznej inteligencji w celu rozwinięcia programu regulacyjnego prezydenta jest jedną logiczną strategią poczynienia znacznego postępu w tym skończonym czasie,„ sugerując, że zespół wiedział, że popycha granice prawne i technologiczne.
Inicjatywa istnieje w kliferze spustoszenia przez Doge, które uświadamia, że Doge. Bruce Schneier, ekspert ds. Bezpieczeństwa cybernetycznego, opisał systematyczne demontaż grup bezpieczeństwa jako „krajowy cyberatak… systematyczne demontaż środków bezpieczeństwa, które wykryłyby i uniemożliwiały niewłaściwe wykorzystanie”. Ten kontekst sprawia, że wdrożenie nowego, potężnego narzędzia AI jest jeszcze bardziej niepokojące.
Wątpliwość jest również wątpliwości. Pracownicy federalni i eksperci kontraktowi twierdzą, że złożoność przepisów między agencjami utrudniłaby skalowane wdrożenie. Pojęcie zastąpienia 70 000 miejsc pracy obecną technologią sztucznej inteligencji zostało odrzucone jako nierealne.
Gdy Doge przenosi się do szkolnictwa personelu agencji w nowym narzędziu, podstawowe pytania pozostają. Nie jest jasne, czy niesprawdzona sztuczna inteligencja poradzi sobie z niuansem prawa federalnego, czy to zautomatyzowane podejście do zarządzania spowoduje więcej problemów niż rozwiązuje.