Le PDG de
OpenAI, Sam Altman, a signalé un recalibrage significatif de ses opinions sur la réglementation de l’IA lors d’une audience du Comité du commerce du Sénat le 8 mai 2025.
Altman a averti que l’imposant pré-approbation du gouvernement rigoureux pour la libération de modèles puissants de l’IA pourrait prouver”désastreux”pour le leadership de l’Amérique dans le domaine rapide. Ce poste contraste notamment avec son témoignage de mai 2023, où il avait plaidé pour la création d’une nouvelle agence fédérale pour obtenir une licence et tester l’IA avancée, l’appelant sa recommandation «numéro un» pour garantir une sécurité de l’IA.
Défaiteurs d’un cadre réglementaire «léger» pour favoriser l’innovation et maintenir un avantage concurrentiel, en particulier contre la Chine.
à l’audience, Altman a en outre clarifié sa position sur le rôle de carrosserie comme le National Institute of Standards and Technology (NIST) dans la définition des normes de développement des modèles d’IA, en déclarant:”Je ne pense pas que cela soit en train de le faire. [Contenu intégré]
Le contexte politique et industriel plus large crampe de plus en plus le développement de l’IA à travers le prisme de la concurrence internationale et de la sécurité nationale. Le sénateur Ted Cruz (R-Texas), présidant l’audience, a souligné cela en déclarant que les États-Unis”ne peuvent pas autoriser la réglementation, même le genre supposément bénin, à étouffer l’innovation et l’adoption”et a annoncé des plans d’introduire un projet de loi créant un”bac à sandage réglementaire pour l’IA”, selon L’audience du Sénat .
href=”https://lk.usembassy.gov/remarks-by-vice-president-vance-at-the-artificial-intelligence-ai-action-summit/”Target=”_ Blank”> a écho par le vice-président JD Vance à un sommet de Paris , qui a déclaré que”L’avenir de l’IA ne va pas être gagné par” Cette approche marque un écart de la stratégie de l’administration Biden, qui comprenait un décret exécutif obligeant les tests de sécurité de l’IA, abrogé plus tard par le président Trump. L’administration Trump a depuis publié
Sam Altman pour l’industrie à prendre la tête dans la définition des normes de l’IA, tout en concrétisant que «non, je pense que certains témoignages sont bons. Il a spécifiquement décrit la loi complète de l’UE de l’UE de l’Union européenne comme «désastreuse». Ce point de vue résonne avec d’autres dirigeants de la technologie, notamment le président de Microsoft, Brad Smith, qui, malgré les appels antérieurs à une agence fédérale dédiée, soutient désormais un cadre de «touche légère». La position évolutive se reflète également dans les changements de politique dans les principaux laboratoires AI; DeepMind de Google, par exemple, a abandonné un engagement de longue date en février 2025 contre le développement de l’IA pour les armes ou la surveillance, et Openai, Meta et Anthropic ont également mis à jour leurs politiques concernant les projets militaires. Cependant, cette poussée pour la surveillance du gouvernement diminue fait face aux critiques. Rumman Chowdhury, un ancien envoyé scientifique du département d’État pour l’IA, a suggéré au Washington Post Switch,”Divertir la mise au point des dommages immédiats et tirant parti des problèmes de sécurité nationale pour contourner la réglementation robuste. Les pressions internes à OpenAI concernant ses engagements de sécurité ont également fait surface. Jan Leike, ancienne co-chef de l’équipe de superalignement d’Openai, a démissionné en mai 2024, déclarant publiquement que «la culture de la sécurité et les processus ont repris les produits brillants», comme l’a rapporté Winbuzzer. Cela fait suite à la dissolution de l’équipe de superalignement, qui a été créée en juillet 2023 pour se concentrer sur les risques d’IA à long terme. En réponse à ces dynamiques internes, Sam Altman a reconnu en mai 2024 qu’Openai avait «beaucoup plus à faire» concernant la sécurité. Plus récemment, en avril 2025, OpenAI a mis à jour ses directives de sécurité internes, introduisant une disposition qui pourrait permettre à l’entreprise d’ajuster ses exigences de sécurité si un concurrent relâche un système à haut rendement sans garanties comparables. Cette décision est survenue peu de temps après que les rapports ont émergé qu’OpenAI avait considérablement réduit les délais de test de sécurité pour ses nouveaux modèles, comme l’O3, de mois à parfois sous une semaine, ce qui a suscité des préoccupations de testeurs, dont l’un a décrit l’approche comme «téméraire». Bien que OpenAI ait des approches techniques détaillées telles que «l’alignement délibératif» pour intégrer le raisonnement de sécurité dans ses modèles, et a indiqué que ses recherches sur la persuasion de l’IA visent à garantir que l’IA ne devient pas trop efficace, comme le couvert les études de persuasion d’IA d’OpenAI, les actions de l’entreprise, telles que le débat d’Altman 2024 de l’Openai, ont alimenté le débat. L’ancien personnel d’OpenAI a même accusé Altman de résister à la réglementation efficace de l’IA en faveur de politiques qui desservent les intérêts commerciaux de l’entreprise. D’autres laboratoires d’IA naviguent également sur ce terrain complexe. Anthropic, par exemple, a dévoilé un cadre d’interprétabilité en mars 2025 pour rendre son raisonnement de Claude AI plus transparent, et a également soumis des recommandations à la Maison Blanche exhortant les tests de sécurité nationale des systèmes d’IA. Cependant, la société aurait également supprimé certains de ses producteurs de sécurité volontaires réalisés dans une initiative blanche précédente. Cela met en évidence les sociétés de danse de danse complexes entre défendre certains types de gouvernance et le maintien de la flexibilité opérationnelle. Le contexte plus large comprend les risques très réels démontrés par l’IA, comme une étude récente montrant des préoccupations humaines surperformant les experts humains dans le dépistage du laboratoire de virologie. En outre, les nouvelles vulnérabilités de sécurité dans les outils d’IA largement utilisées, comme le copilote de Microsoft pour SharePoint, continuent d’émerger, mettant en évidence les risques immédiats même si les appels à une réglementation plus légère s’intensifie. Surhumain à General Intelligence”semble particulièrement saillant car il défend maintenant plus de liberté de l’industrie. Son précédent appel à une agence de licence et à des tests de pré-libération contraste fortement avec son accent actuel sur l’évitement des réglementations qui pourraient «étouffer l’innovation». Cette évolution dans sa position publique se produit comme le gouvernement américain lui-même, sous une nouvelle administration, signale une préférence pour accélérer les dirigeants d’IA pour faire évoluer Alexand, en particulier avec la Chine, qui a également été exprimé par d’autres dirigeants technologiques comme l’échec de l’AIE Alexand. Le soutien de l’IA en tant qu’impératif moral. Washington Post que «S’il y a un sandwicherie en face d’Openai ou d’anthropique ou l’une des autres sociétés, avant de pouvoir vendre un seul sandwich qu’ils doivent répondre aux normes de sécurité pour leur cuisine. Si [les sociétés d’IA] veulent libérer Super Intelligence demain, elles sont libres de le faire.” Au fur et à mesure que l’âge de l’intelligence se déroule, la tâche critique d’équilibrer l’innovation avec la sécurité publique et la définition des cadres de gouvernance pour une IA de plus en plus puissante, restera sans aucun doute à l’avant-tête du discours mondial. L’industrie de l’IA navigue dans un paysage réglementaire changeant