Administrația Trump dezvoltă în secret o platformă centralizată de inteligență artificială, „AI.gov”, prevăzută pentru o lansare din 4 iulie, într-o escaladare semnificativă a campaniei sale de încorporare AI în guvernul Statelor Unite. Cod scurs și documente interne raportat primul de 404 media dezvăluie administrația generală a serviciilor (GSA) este un proiect de protecție, care este un lucru pentru a fi „GSA), cu o informație a serviciilor generale” Suite de instrumente integrate.

Această inițiativă reprezintă o schimbare pivotantă, mutând ambițiile AI ale administrației de pe tărâmul proiectelor controversate, ad-hoc, într-o infrastructură formală, la nivel de guvern. Ajutat de fostul inginer Tesla și actualul șef al tehnologiei GSA, Thomas Shedd, platforma își propune să integreze și să eficientizeze accesul la modele puternice dintr-o ardezie de giganți tehnologici. Conform Cod postat pe github înainte de a fi preluat din nou , proiectul include nu numai OpenAI, Google și Antropiic, dar arată și lucrările pentru a-l încorpora pe serviciile web Amapon”Bedrock și Mether, dar arată și lucrările pentru a încorpora serviciile web Amapon”Bedrock și Methers, dar arată și lucrările pentru a-l transforma LLAMA.

Platforma este proiectată pentru a oferi mai mult decât doar acces; De asemenea, va prezenta un tablou de bord Analytics pentru a monitoriza cât de mult diferite echipe guvernamentale folosesc aceste instrumente AI. The project formalizes Shedd’s previously stated goal to “AI-ify”much of the government, an agenda that has already been met with deep skepticism and what one source described as a “pretty unanimously negative”reaction from some government employees.

This move institutionalizes a sprawling, top-down push for AI adoption, raising profound questions about oversight, security, and the growing influence of Big Tech within the federal bureaucracy.

From ‘DOGE’ Experiments to Official Policy

The structured development of ai.gov stands in stark contrast to the administration’s earlier, more chaotic forays into AI, care au fost determinate în mare parte de Departamentul de eficiență guvernamental al lui Elon Musk (Doge).

aceste eforturi s-au caracterizat prin tactici agresive și experimente etici care au apărut adesea să ocolească protocoalele standard. De exemplu, rapoartele din mai 2025 au dezvăluit că Doge folosea propriul Chatbot XAI, Grok, pentru lucrările guvernului intern, stârnind alarme de conflict de interese.

Mai mult, ambițiile grupului s-au extins direct la forța de muncă federală. Un recrutor legat de Doge a prezentat un proiect de implementare a agenților AI pentru automatizarea locurilor de muncă federale. Recrutorul, Anthony Jancso, a susținut că efortul ar putea elibera echivalentul „cel puțin 70K FT pentru lucrări cu impact mai mare pe parcursul anului următor. Inițiativa AI.gov, deși mai formală, pare a fi succesorul bazat pe politici pentru aceste începuturi controversate.

O miză mare pentru contractele guvernamentale

Crearea unei piețe AI centralizate, cum ar fi AI.gov nu se întâmplă într-un vid. Acesta servește ca o arenă formală pentru o competiție cu miză mare între giganții tehnologici, toate concurente pentru contracte guvernamentale lucrative și influente. Aceste companii fac lobby activ pentru a modela politica americană, adesea cu strategii divergente. OpenAI, de exemplu, a lansat proactiv un produs specializat „Chatgpt Gov” pe Microsoft’s Secure Cloud și CEO-ul său, Sam Altman, a declarat despre compania sa și administrația: „Interesele noastre sunt foarte aliniate. Politica AI și deschide noi oportunități-este un ciclu virtuos.”

Acest lucru este complicat și mai mult de sectorul apărării. Alexandr Wang, CEO al firmei de etichetare a datelor Scale AI, a apărat cu forță munca extinsă a companiei sale cu Pentagonul ca „imperativ moral”. Vorbind la Centrul pentru Studii Strategice și Internaționale, Wang a susținut că, în fața concurenței globale, „va fi imperativ ca SUA să rămână înainte”. Platforma AI.gov va deveni nexusul în care converg aceste interese comerciale și geopolitice concurente.

O umbră de scăderi de securitate și alarme etice

În ciuda susținerii oficiale a GSA, proiectul AI.gov moștenește bagajul bagajului de concordanță cu probleme de securitate și etici. Aceleași întrebări fundamentale cu privire la confidențialitatea datelor, supravegherea și responsabilitatea care au afectat inițiativele Doge se aplică acum pe o scară instituțională mult mai mare. Utilizarea GROK pentru a analiza datele guvernamentale a fost descrisă de Albert Fox Cahn a proiectului de supraveghere a tehnologiei de supraveghere ca fiind „o amenințare la fel de serioasă de confidențialitate pe cât obțineți”. Această preocupare se va extinde, fără îndoială, la orice model integrat în noua platformă.

Această reținere este amplificată de acuzații credibile de încălcări severe de protocol de securitate. Un denunțător de la Consiliul Național pentru Relații de Muncă a depus o declarație înjurată, susținând că personalul Doge a cerut acces la nivel înalt la nivel de nivel înalt și a instruit în mod explicit personalul „că nu trebuie să existe jurnale sau înregistrări făcute din conturile create pentru angajații Doge”, o încălcare uimitoare a practicii de bază a cibersecurității. Aceste acțiuni trecute creează o neîncredere profundă pe care trebuie să o depășească noua platformă AI.gov mai lustruită. Acesta semnalează o schimbare strategică de la experimente haotice, bazate pe personalitate, la un cadru de politică durabil, instituționalizat. Lansarea platformei pe 4 iulie va fi un moment critic, dezvăluind dacă această abordare centralizată poate accelera cu adevărat inovația guvernamentală sau dacă va amplifica pur și simplu controversele care au definit apăsarea AI a administrației de la început.

Categories: IT Info