L’administration Trump développe secrètement une plate-forme d’intelligence artificielle centralisée, «AI.gov», prévue pour un lancement du 4 juillet, dans une escalade importante de sa campagne pour intégrer l’IA à travers le gouvernement américain. Documents divulgués et des documents internes First signalé par 404 médias révèlent que l’administration des services généraux (GSA)”GSA)”avec une innovation de la GSA) est”avec une innovation avec un gouvernement avec un”GSA) Une suite d’outils intégrés.
Cette initiative représente un changement pivot, transformant les ambitions d’IA de l’administration du domaine des projets controversés et ad hoc dans une infrastructure formelle à l’échelle du gouvernement. Généré par l’ancien ingénieur de Tesla et le chef actuel de la technologie GSA Thomas Shedd, la plate-forme vise à intégrer et à rationaliser l’accès à des modèles puissants à partir d’une liste de géants de la technologie. Selon Code publié sur github avant de retirer à nouveau Lama.
La plate-forme est conçue pour fournir plus que l’accès; Il comportera également un tableau de bord analytique pour surveiller à quel point les équipes gouvernementales largement différentes utilisent ces outils d’IA. Le projet formalise l’objectif précédemment déclaré de Shedd pour «AI-iFif» une grande partie du gouvernement, un programme qui a déjà rencontré un scepticisme profond et ce qu’une source a décrit comme une réaction «assez unanimement négative» de certains employés du gouvernement.
. </p><div style=)
Ces efforts ont été caractérisés par des tactiques agressives et des expériences éthiques et lourdes qui semblaient souvent contourner les protocoles standard. Par exemple, les rapports de mai 2025 ont révélé que Doge utilisait le propre chatbot XAI de Musk, Grok, pour le travail du gouvernement interne, suscitant des alarmes de conflit d’intérêt.
En outre, les ambitions du groupe se sont étendues directement à la main-d’œuvre fédérale. Un recruteur lié à Doge a décrit un projet de déploiement d’agents d’IA pour automatiser les emplois fédéraux. Le recruteur, Anthony Jancso, a affirmé que l’effort pourrait libérer l’équivalent de «au moins 70 000 EFT pour un travail à impact supérieur au cours de la prochaine année». L’initiative AI.gov, bien que plus formelle, semble être le successeur axé sur les politiques de ces débuts controversés.
Une course à enjeux élevés pour les contrats gouvernementaux
La création d’un marché d’IA centralisé comme AI.gov ne se produit pas dans un vide. Il sert d’arène formelle pour une compétition à enjeux élevés entre les géants de la technologie, tous en lice pour des contrats gouvernementaux lucratifs et influents. Ces entreprises font du lobbying activement pour façonner la politique américaine, souvent avec des stratégies divergentes. OpenAI, par exemple, a lancé de manière proactive un produit spécialisé”Chatgpt Gov”sur Secure Cloud de Microsoft et son PDG, Sam Altman, a déclaré à propos de son entreprise et de l’administration,”Nos intérêts sont très alignés.”
Google, en revanche, a été publiquement préconisé pour une touche de réglementation plus légère, avec son président des affaires mondiales, Kent Walk, a plaidé, qui fait plus d’organisations, avec une AI, avec une AI,”Une meilleure politique de l’IA et ouvre de nouvelles opportunités-c’est un cycle vertueux.”
Cela est encore compliqué par le secteur de la défense. Alexandr Wang, PDG de la société d’étiquetage des données Scale Scale AI, a défendu avec force le travail étendu de son entreprise avec le Pentagone comme un «impératif moral». S’exprimant au Center for Strategic and International Studies, Wang a fait valoir que, face à la concurrence mondiale,”il sera impératif pour les États-Unis de rester en avance”. La plate-forme AI.gov deviendra le lien où ces intérêts commerciaux et géopolitiques concurrents convergent.
Une ombre des lacunes de sécurité et des alarmes éthiques
malgré son soutien officiel GSA, le projet AI.gov hérite du sac de l’administration préalable sur la sécurité et l’éthique. Les mêmes questions fondamentales sur la confidentialité, la surveillance et la responsabilité des données qui ont tourmenté les initiatives DOGE s’appliquent désormais à une échelle institutionnelle beaucoup plus grande. L’utilisation de Grok pour analyser les données du gouvernement a été décrite par Albert Fox Cahn du projet de surveillance de la technologie de surveillance aussi «une menace aussi grave que vous obtenez». Cette préoccupation s’étendra sans aucun doute à tout modèle intégré à la nouvelle plate-forme.
Cette appréhension est amplifiée par des allégations crédibles de violations de protocole de sécurité sévères. Un dénonciateur du conseil national des relations de travail a déposé une déclaration sous serment alléguant que le personnel de Doge a demandé un accès au cloud de haut niveau et a explicitement instruit le personnel «qu’il ne devait y avoir aucun journal ni enregistrement sur les comptes créés pour les employés de Doge», une violation étonnante de la pratique de la cybersécurité de base. Ces actions passées créent une méfiance profonde que la nouvelle plate-forme AI.gov plus polie doit maintenant surmonter.
En fin de compte, l’initiative AI.gov marque la maturation des ambitions AI de l’administration Trump. Il signale un passage stratégique des expériences chaotiques et axées sur la personnalité à un cadre politique durable et institutionnalisé.
Cependant, cette formalisation ne résout pas les tensions sous-jacentes entre l’innovation, la sécurité nationale et les garde-corps éthiques requis pour une technologie aussi puissante. Le lancement de la plate-forme le 4 juillet sera un moment critique, révélant si cette approche centralisée peut vraiment accélérer l’innovation gouvernementale ou si elle amplifie simplement les controverses qui ont défini la poussée de l’IA de l’administration depuis le tout début.