La era de”simplemente agregar computación”, definida durante mucho tiempo por una única heurística, ahora definitivamente se ha topado con un muro de rendimientos decrecientes, piensa Ilya Sutskever.
De 2020 a 2025, la industria de la inteligencia artificial operó bajo el supuesto de que las leyes de potencia dictaban un rendimiento confiable.
Se esperaba que introducir más datos y computación en un modelo produjera automáticamente resultados más inteligentes. Ese período, ahora definido como la”Era de la escala”, dijo en una entrevista reciente con Dwarkesh Patel.
Sutskever, cofundador y ex científico jefe de OpenAI, que ahora lleva a cabo su propia empresa Safe Superintelligence Inc. (SSI), es un arquitecto clave de la revolución del aprendizaje profundo y definitivamente vale la pena escucharlo.
En su entrevista con Patel, demarcó explícitamente la línea de tiempo de la industria en dos eras distintas. Sostuvo que la estrategia de simplemente escalar la capacitación previa ha agotado sus frutos más fáciles.
“Hasta 2020, de 2012 a 2020, era la era de la investigación. Ahora, de 2020 a 2025, era la era de la escala… porque la gente dice:’Esto es asombroso. Tienes que escalar más. Sigue escalando’. La única palabra: Pero ahora la escala es tan grande. Seguramente sería diferente. Pero, ¿no creo que sea cierta la creencia de que si se multiplicara por 100 la escala, hemos vuelto a la era de la investigación, sólo que con las grandes computadoras? laboratorios importantes. Según él,”todo el mundo empezó a hacer lo mismo”.
Es obvio que todos los actores importantes, desde OpenAI hasta Google, siguieron la misma curva, asumiendo que 100 veces más computación produciría 100 veces más inteligencia.
Según Sutskever, la nueva”Era de la investigación”exige un retorno a la innovación arquitectónica en lugar de la fuerza bruta.
Yann LeCun, todavía jefe científico de IA en Meta, pero sobre para irse pronto, comparte este punto de vista, argumentando que la trayectoria actual se está acercando asintóticamente a un techo en lugar de a una superinteligencia.
Él insiste en que “no vamos a llegar al nivel humano de IA simplemente ampliando los LLM. Esto simplemente no va a suceder”, como dijo en una entrevista con el podacaster Alex Kantrowitz.
El problema de los datos finitos: por qué “más” ya no es “mejor”
Para volver de la escalabilidad a la investigación es fundamental un cuello de botella que ninguna cantidad de GPU de Nvidia puede resolver: la naturaleza finita de los datos de preentrenamiento de alta calidad. Sutskever señala que”los datos son claramente finitos”, lo que obliga a los laboratorios a elegir entre un”preentrenamiento mejorado”o paradigmas completamente nuevos.
Y LeCun va aún más lejos con su crítica mordaz del estado actual de la técnica, describiendo los modelos de lenguajes grandes (LLM, por sus siglas en inglés) como motores de recuperación sofisticados en lugar de agentes inteligentes.
“Lo que tal vez vamos a tener son sistemas entrenados con cantidades de datos suficientemente grandes que cualquier pregunta que cualquier persona razonable pueda hacer encontrará una respuesta a través de esos sistemas. Y se sentiría como si tuviera un doctor sentado a su lado. Pero no es un doctor lo que tiene a su lado, sino que conoce un sistema con una memoria y una capacidad de recuperación gigantescas, no un sistema que puede inventar soluciones a nuevos problemas”.
Esta distinción es fundamental para comprender el giro de la industria. Una”memoria gigantesca”definitivamente puede aprobar exámenes recuperando patrones, pero no puede inventar soluciones a problemas nuevos.
Tampoco puede razonar a través de tareas complejas de varios pasos sin alucinar.
Este defecto, que explica el estancamiento, impide que los modelos se generalicen fuera de su distribución de entrenamiento, una limitación que el simple escalamiento ya no puede enmascarar.
Y sin un cambio en la metodología, la industria corre el riesgo de gastar miles de millones para construir bibliotecarios ligeramente mejores en lugar de científicos.
Fuente: S&P, Sparkline. Del primer trimestre de 2015 al segundo trimestre de 2025
Ingrese a la’Era de la investigación’: razonamiento, RL y funciones de valor
La definición que Sutskever hace de la”Era de la investigación”es un cambio de la predicción del próximo token al razonamiento del”Sistema 2″. Señala las”funciones de valor”y el aprendizaje por refuerzo (RL) como la nueva frontera.
A diferencia del entrenamiento previo, que requiere extensos conjuntos de datos estáticos, RL permite a los modelos aprender de sus propios rastros de razonamiento, generando efectivamente sus propios datos mediante prueba y error.
Citó las El artículo DeepSeek-R1 es un excelente ejemplo de este cambio. Al utilizar RL pura para incentivar capacidades de razonamiento sin ajustes finos supervisados, el modelo demostró que los cambios arquitectónicos pueden generar ganancias que la escala bruta no puede.
El motor”Deep Think”de Google en la actualización Gemini 3 representa de manera similar este movimiento hacia la”computación en tiempo de prueba”. Los ingenieros pretenden crear modelos que puedan”pensar”durante más tiempo para resolver problemas más difíciles.
Al permitir que el modelo explore múltiples rutas de solución antes de responder, los laboratorios esperan superar el límite de razonamiento que ha limitado el rendimiento actual del LLM.
[contenido incorporado]
La respuesta de Google: el mandato de la’Era de la inferencia’mil veces mayor
Mientras los científicos de IA debaten cuál es el mejor camino a seguir, Google ya está reequipando toda su infraestructura física para esta nueva realidad. Una presentación interna del 6 de noviembre revela un mandato de “tiempos de guerra”: duplicar la capacidad de servicio de IA cada seis meses.
De acuerdo con el mandato de crecimiento de 1.000 veces, el objetivo a largo plazo es un asombroso aumento de 1.000 veces la capacidad para 2030.
El vicepresidente de infraestructura, Amin Vahdat, enmarca esto como una necesidad existencial y señala que la infraestructura es “la parte más crítica y también la más cara de la IA”. carrera.”El motor de esta expansión no es el entrenamiento (el viejo cuello de botella), sino la”Era de la Inferencia”.
Los modelos de razonamiento de última generación como ChatGPT-5.1 y Gemini 3 Pro requieren exponencialmente más computación en tiempo de ejecución para explorar rutas de solución.
A diferencia de una consulta de búsqueda estándar que cuesta fracciones de centavo, una consulta futura de”Pensamiento profundo”podría ejecutarse durante muchos minutos o incluso horas, consumiendo una cantidad sustancial de computación de inferencia.
Pero ampliar la capacidad 1000 veces utilizando hardware estándar es económicamente imposible; La eficiencia es el único mecanismo de supervivencia. Por lo tanto, la estrategia de Google se basa en el”codiseño”, integrando las necesidades de software directamente en el silicio personalizado con su nuevo TPU”Ironwood”.
Al mismo tiempo, las cargas de trabajo de propósito general se están descargando a CPU”Axion”basadas en Arm para liberar presupuestos de energía para los TPU que consumen mucha energía.
Sin embargo, el Paradoja de Jevons cobra gran importancia. Este principio económico dicta que una mayor eficiencia impulsa un mayor consumo total en lugar de conservación. A medida que los costos de inferencia disminuyan, la demanda de un razonamiento complejo de”pensamiento profundo”explotará.
En consecuencia, el consumo total de energía y el gasto de capital probablemente aumentarán, incluso cuando la eficiencia por unidad mejore.
[contenido incorporado]
El costo de ser el primero para OpenAI
El alejamiento del escalamiento puro ha afectado más duramente al actual operador, OpenAI. Tras el triunfalismo de su DevDay 2025, la empresa está atravesando un reinicio psicológico, pasando de una mentalidad ganadora predeterminada a una posición disciplinada en tiempos de guerra.
Este cambio se cristalizó en un memorando interno filtrado del CEO Sam Altman, quien advirtió explícitamente al personal sobre”vibraciones duras”y”vientos económicos en contra”significativos.
El memorando marca un raro momento de vulnerabilidad para un líder conocido por su optimismo implacable, que contrasta marcadamente con el la proyección pública de invencibilidad de la empresa. Lo más alarmante es el pronóstico interno revisado con respecto a las trayectorias de crecimiento.
En un escenario de”caso bajista”, el crecimiento de los ingresos podría caer a un solo dígito, específicamente entre el 5% y el 10%, para 2026. Esto representaría una desaceleración catastrófica de la expansión de tres dígitos que caracterizó el auge de ChatGPT.
Para agravar la ansiedad por los ingresos está la asombrosa tasa de quema de la compañía. Las proyecciones indican que la empresa está lidiando con una pérdida operativa potencial de 74 mil millones de dólares para 2028. Dado que la rentabilidad anteriormente descartada por los líderes como una preocupación secundaria, el repentino enfoque en la disciplina fiscal sugiere que la paciencia de los inversionistas por las pérdidas indefinidas puede estar disminuyendo a medida que aumentan los costos de infraestructura.
El memorándum también contenía una concesión sincera con respecto al panorama competitivo. Al reconocer que la brecha técnica se ha cerrado, Altman admitió ante los empleados que la empresa ahora está en una posición de”ponerse al día rápidamente”.
“Google ha estado haciendo un trabajo excelente últimamente en todos los aspectos”, admitió.
Desde el punto de vista operativo, esta ansiedad se ha manifestado en medidas correctivas inmediatas. Han comenzado a circular rumores sobre una congelación de las contrataciones, lo que añade peso a la advertencia de una fase más disciplinada.
Al mismo tiempo, los equipos de ingeniería se apresuran a implementar un nuevo modelo con el nombre en código”Shallotpeat”. El modelo, que está explícitamente destinado a corregir errores que surgieron durante el proceso de capacitación previa, representa un intento crítico de estabilizar la base técnica de la empresa.
La guerra del producto:”deleite”versus”invencibilidad”
La actualización Gemini 3 de Google ha cambiado con éxito la narrativa de”ponerse al día”a”deleite del producto”. La deserción pública del CEO de Salesforce, Marc Benioff, de ChatGPT es un evento de referencia:”No voy a regresar. El salto es una locura, razonamiento, velocidad, imágenes, video… todo es más nítido y rápido”, afirmó recientemente.
Sin embargo, la”Lente del escéptico”revela un campo de batalla fragmentado, no un nuevo monopolio. El lanzamiento de Claude Opus 4.5 de Anthropic demuestra que la carrera está lejos de terminar. El modelo obtiene una puntuación del 80,9 % en SWE-bench Verified, superando tanto a Gemini 3 Pro como a GPT-5.1.
Este triple punto muerto entre OpenAI, Google y Anthropic demuestra que ningún laboratorio tiene un”foso”permanente. La inteligencia bruta ya no es el único diferenciador, sino la integración y la utilidad.
El impacto del hardware: la posición defensiva de Nvidia
Y las costosas pilas verticales implementadas por estos jugadores representan una amenaza existencial para Nvidia. Los informes de que Meta está negociando el uso de TPU de Google hicieron caer las acciones de Nvidia en los últimos días, a pesar de las ganancias récord.
Si los hiperescaladores como Meta y Google pueden confiar en su propio silicio para la”Era de la Inferencia”, Nvidia podría perder a sus mayores clientes.
Rompiendo su habitual silencio, Nvidia sintió la necesidad de emitir una publicación defensiva afirmando estar”una generación por delante de la industria”, insistiendo en que tiene”la única plataforma que ejecuta todos los modelos de IA y lo hace en todos los lugares donde se realiza informática”.
Tal refutación pública sugiere una ansiedad genuina sobre la mercantilización del hardware de IA.
La capacidad de Google para ofrecer TPU a través de la nube crea un ataque serio a los márgenes de Nvidia, desafiando la suposición de que sus GPU son el único camino viable hacia la IA de última generación.
Google Procesador TPU v7 Ironwood (Imagen: Google)
Realidad del mercado: ¿burbuja o metamorfosis?
Dado que la yuxtaposición de los temores de una”burbuja de IA”con un importante gasto de capital define el momento actual, Sundar Pichai ha admitido”elementos de irracionalidad”en el mercado, al mismo tiempo que exige un crecimiento de 1.000 veces.
Más que una contradicción, esto representa un cálculo: el La burbuja de la “Era de la Escala” está estallando, pero la economía de la “Era de la Inferencia” está apenas en su comienzo.
Los ganadores de la siguiente fase serán aquellos que puedan sostener los sustanciales costos de I+D de la próxima “Era de la Investigación” en IA.
Las empresas que dependen únicamente de hardware disponible en el mercado y de datos públicos (el manual de estrategia de 2020) se enfrentan a la extinción. El futuro pertenecerá a aquellos que puedan construir todo el stack, desde el chip hasta el sistema operativo.