El CEO de Openai, Sam Altman, ha señalado una recalibración significativa de sus puntos de vista sobre la regulación de la IA durante una audiencia del Comité de Comercio del Senado el 8 de mayo de 2025.

Altman advirtió que la imponente aprobación previa del gobierno para la liberación de modelos AI poderosos podría probar”desastroso”para el liderazgo de Estados Unidos en el campo rápido avanzado. Esta posición contrasta notablemente con su testimonio de mayo de 2023, donde había abogado por la creación de una nueva agencia federal para licenciar y probar la IA avanzada, calificando su recomendación de”número uno”para garantizar la seguridad de la inteligencia artificial. advocates for a ‘light-touch’ regulatory framework to foster innovation and maintain a competitive edge, especially against China.

The implications de este pivote son sustanciales para el futuro de la gobernanza de la IA. Como una voz principal en el campo, la perspectiva revisada de Altman podría influir en los encargados de formular políticas para adoptar un enfoque más práctico, lo que potencialmente acelera el despliegue de tecnologías de IA avanzadas. Esto llega en un momento en que las capacidades de la IA se están expandiendo rápidamente, junto con las crecientes preocupaciones de los críticos y algunos legisladores sobre los daños sociales existentes y potenciales, como el sesgo en los sistemas de IA, la generación de imágenes no consensuadas, y el potencial para que la IA se use en las campañas de desinformación. Lo que deberían ser primero”. El debate continúa sobre si la autorregulación será suficiente para abordar los complejos desafíos planteados por la IA cada vez más poderosa.

En la audiencia, Altman aclaró su posición sobre el papel de cuerpos como el Instituto Nacional de Estándares y Tecnología (NIST) en el establecimiento de Estándares de Desarrollo de AI, que dice:”No creo que lo necesitemos. [Contenido integrado]

El contexto político e industrial más amplio está enmarcando cada vez más el desarrollo de la IA a través del prisma de la competencia internacional y la seguridad nacional. El senador Ted Cruz (republicano de Texas), presidiendo la audiencia, subrayó esto al afirmar que Estados Unidos”no puede permitir la regulación, incluso el tipo supuestamente benigno, ahogar la innovación y la adopción”y anunció planes para introducir un proyecto de ley creando un”Sandbox regulador para AI”, según la audiencia del Senado .

Esta sentencia fue el vicepresidente JD Vance en una cima de Paris , que declaró que”el futuro no va a ser a la mano. Este enfoque marca una desviación de la estrategia de la administración Biden, que incluyó una orden ejecutiva que exige pruebas de seguridad de IA, luego derogada por el presidente Trump. Desde entonces, la administración Trump ha emitido Nuevas orientaciones dirigiendo a la oficina de reducción de la oficina y prometido ai americano y promulgar a la prensa de la oficina. Dominio, según lo detallado por Wilmerhale.

La industria AI navega un panorama regulatorio cambiante

El llamado de Sam Altman para que la industria sea la iniciativa de tomar el liderazgo en la definición de estándares de la IA, mientras que”no, creo que una política es buena, pero creo que es fácil para que llegue demasiado lejos.”, Fue un tema central reciente. Describió específicamente la Ley Integral de AI de la UE de la Unión Europea como”desastrosa”.

Esta opinión resuena con otros ejecutivos de tecnología, incluido el presidente de Microsoft, Brad Smith, quien, a pesar de los anteriores, exige una agencia federal de IA dedicada, ahora respalda un marco de”toque ligero”. La postura en evolución también se refleja en los cambios de políticas en los principales laboratorios de IA; DeepMind de Google, por ejemplo, desechó una promesa de larga data en febrero de 2025 contra el desarrollo de IA para armas o vigilancia, y OpenAi, Meta y Anthrope han actualizado de manera similar sus políticas con respecto a los proyectos militares. Rumman Chowdhury, un ex enviado de ciencias del Departamento de Estado para AI, sugerido a la publicación de Washington que la industria tecnológica anterior en el enfoque de la industria tecnológica en el enfoque existencial de AI existencial de AI existencial de AI existencial de AI de AI como”BaIn”. desviar el enfoque de los daños inmediatos y aprovechar las preocupaciones de seguridad nacional para dejar de lado la regulación sólida.

Las presiones internas en OpenAI también han surgido sus compromisos de seguridad. Jan Leike, ex co-líder del equipo de superalineación de Openai, renunció en mayo de 2024, afirmando públicamente que”la cultura y los procesos de seguridad han tomado un asiento trasero para productos brillantes”, como informó WinBuzzer. Esto siguió a la disolución del equipo de superalineación, que se estableció en julio de 2023 para centrarse en los riesgos de IA a largo plazo. En respuesta a estas dinámicas internas, Sam Altman reconoció en mayo de 2024 que OpenAi tenía”mucho más que hacer”con respecto a la seguridad.

Más recientemente, en abril de 2025, Openai actualizó sus pautas de seguridad internas, introduciendo una disposición que podría permitir a la compañía ajustar sus requisitos de seguridad si un competidor libera un sistema de alto riesgo sin ceegues comparables. Este movimiento se produjo poco después de que surgieron informes de que OpenAI había reducido significativamente los tiempos de prueba de seguridad para sus nuevos modelos, como O3, de meses a a veces por debajo de una semana, lo que provocó preocupaciones de los probadores, uno de los cuales describió el enfoque como”imprudente”. Si bien Openai tiene enfoques técnicos detallados como”alineación deliberativa”para incrustar el razonamiento de seguridad en sus modelos, y ha declarado su investigación sobre la persuasión de IA para garantizar que la IA no se vuelva demasiado efectiva, como cubierto en los estudios de persuasión de IA de OpenAi, las acciones de la Compañía, como la renuncia de Altman en septiembre de 2024 de la junta de seguridad de OpenAi, han impulsado el debate en curso. El ex personal de Operai incluso ha acusado a Altman de resistir una regulación efectiva de IA a favor de las políticas que sirven a los intereses comerciales de la compañía.

Otros laboratorios de IA también están navegando por este complejo terreno. Anthrope, por ejemplo, dio a conocer un marco de interpretabilidad en marzo de 2025 para hacer que el razonamiento de Claude AI fuera más transparente, y también presentó recomendaciones a la Casa Blanca que instaron a las pruebas de seguridad nacional de los sistemas de IA.

, sin embargo, la compañía también supuestamente se remonta a algunas de sus pledas de seguridad voluntarias realizadas bajo una iniciativa de la Casa Blanca anterior. Esto destaca las intrincadas compañías de IA de danza que desempeñan entre abogar por ciertos tipos de gobernanza y mantener la flexibilidad operativa.

El contexto más amplio incluye los riesgos muy reales demostrados por la IA, como un estudio reciente que muestra la IA superando a los expertos humanos en la TRISMACIONES DE LABORA DE VIROLOGÍA, aumentando las preocupaciones de uso dual sobre los riesgos de biowapon. Además, las nuevas vulnerabilidades de seguridad en herramientas de IA ampliamente utilizadas, como el copilot de Microsoft para SharePoint, continúan surgiendo, destacando los riesgos inmediatos incluso cuando los llamados a la regulación más ligera se intensifican.

Definición del futuro de la gobernanza de AI

sam altman 2023 que advierte que ai podría ser”CAPABLE de la superhumana de la materia de Superhuman, lo que es más importante, lo que puede ser un”de superhumane de superhuman, lo que es más posible que es un apoguración de Superhuman, lo que es más posible que sea”. Superhumano en General Intelligence”parece particularmente destacado, ya que ahora aboga por una mayor libertad de la industria. Su llamado anterior para una agencia de licencias y pruebas de prelanzamiento en contraste con su énfasis actual en evitar las regulaciones que podrían”ahogar la innovación”.

Esta evolución en su postura pública ocurre como el gobierno de los Estados Unidos mismo, bajo una nueva administración, señala una preferencia de aceleración de AI, particular El apoyo de IA como un”imperativo moral”.

Si bien Altman sugiere que los problemas complejos como la privacidad representan un”este es un área gris… para que ustedes [legisladores] piensen y tomen bastante en serio”, su mensaje general ahora se inclina hacia la autodeterminación de la industria en el establecimiento de estándares de seguridad. que”si hay una tienda de sándwiches al otro lado de la calle de OpenAi o antrópico o una de las otras compañías, antes de que puedan vender incluso un sándwich, tienen que cumplir con los estándares de seguridad para su cocina. Si [las compañías de IA] quieren lanzar súper inteligencia mañana, son libres de hacerlo”.

A medida que se desarrolla la”edad de inteligencia”, la tarea crítica de equilibrar la innovación con la seguridad pública y la definición de los marcos de gobernanza para una IA cada vez más poderosa, sin duda permanecerá en el frente de la discurso global.

Categories: IT Info