tencent dice que está reduciendo su dependencia de las GPU de NVIDIA al desplegar modelos de IA de Deepseek que ofrecen una mayor eficiencia con menos chips, un cambio que la compañía describe como una estrategia de infraestructura a largo plazo dirigida a reducir la dependencia del hardware y mejorar la escala. href=”https://www.mitrade.com/insights/news/live-news/article-8-707313-20250320″Target=”_ en blanco”> Q4 2024 ganancias llamadas , donde la compañía se enfatizó en el rendimiento de la compañía, de los modelos de arquitectura de Deepseek. capaz de minimizar el consumo de GPU mientras se mantiene la producción.”[La] industria y nosotros, dentro de la industria, estamos obteniendo una productividad mucho mayor en una gran capacitación de modelos de idiomas de las GPU existentes sin necesidad de agregar GPU adicionales al ritmo previamente esperado”, dijo el ejecutivo. Explicó aún más:
“Las empresas chinas generalmente están priorizando la eficiencia y la utilización, la utilización eficiente de los servidores de la GPU. Creo que el éxito de Deepseek realmente simboliza y se solidifica, demostró eso, esa realidad. Abastecimiento.
eficiencia sobre la escala: por qué Tencent está respaldando a Deepseek
El próximo modelo R2 de Deepseek ahora está siendo rápido para la liberación antes de su lanzamiento de mayo de su lanzamiento 2025. Capacidades multimodales, mejorando su utilidad en los casos de uso empresarial.
Los modelos más nuevos como los de Deepseek no son solo más ligeros; También están optimizados para la pila de computación de Tencent, lo que los hace más eficientes durante la capacitación e inferencia.
Si bien la compañía también ha invertido en el desarrollo interno, como su modelo de turbo de Hunyuan, DePseek se utiliza para las cargas de trabajo más complejas que requieren un razonamiento avanzado y un rendimiento cruzado. De hecho, según los informes, la compañía ha hecho grandes pedidos de chips H20 específicos de China de Nvidia para apoyar la integración profunda en las aplicaciones como WeChat, como se detalla en este Informe de tendencia en sus compras de chips H20 . Sin embargo, el juego de infraestructura claramente está cambiando de la expansión en bruto a la optimización arquitectónica.
Escalado más inteligente: contrastar a Deep Speek con el GPT-4.5
del contraste de OpenAi. En febrero, Openai presentó GPT-4.5, llamándolo su modelo más grande y más capaz hasta la fecha.
Sin embargo, el CEO Sam Altman minimizó las expectativas,
El modelo mejoró el rendimiento en las tareas multilingües y multimodales, pero no pudo superar a los modelos específicos de razonamiento más pequeños como O3-Mini en dominios estructurados como las matemáticas y la lógica científica. Esto muestra cómo el enfoque de Tencent, enfocado en la eficiencia de inferencia y los modelos a medida localmente, podría destacarse como una estrategia más sostenible. Esta tendencia no es exclusiva de Tencent. Un artículo de investigación reciente propuso un método llamado”muestra, escrutinio y escala”, que mejora el razonamiento a través de la autoverificación de tiempo de inferencia. Los modelos generan múltiples salidas por consulta y seleccionan los más precisos utilizando mecanismos de puntuación interna. Si bien esto aumenta la sobrecarga computacional en el tiempo de ejecución, evita los costos de globos de los modelos masivos previos a la capacitación y se considera un enfoque más específico para mejorar las tareas de razonamiento. Si bien DeepSeek no ha confirmado si utiliza tales técnicas, su desempeño en los puntos de referencia de razonamiento y la baja huella de la GPU sugieren que puede ser adoptando estrategias similares. Para Tencent, esto ofrece una ruta a los servicios de IA de escala sin comprometer en exceso los inventarios de GPU limitados o restringidos. tencent no está solo en la reevaluación de su infraestructura. Microsoft recientemente rechazó una opción de nube GPU de $ 12 mil millones con CoreWeave, que en su lugar fue abordada por OpenAI. El acuerdo de $ 11.9 mil millones incluyó una participación de capital de $ 350 millones de Operai antes de la salida a bolsa de CoreWeave. Este movimiento le permite a Operai diversificar sus fuentes de cómputo más allá de Microsoft Azure. Microsoft, mientras tanto, se está duplicando sus chips internos, como los aceleradores de Azure Maia y Cobalt. La compañía también está reduciendo la expansión física. Microsoft canceló múltiples arrendamientos de centro de datos de IA, incluida una instalación de $ 3.3 mil millones en Wisconsin, después de revisar los pronósticos de demanda interna. Los analistas de TD Cowen señalaron que las proyecciones de uso de OpenAI actualizadas desempeñaron un papel importante en la decisión. Esta divergencia en las estrategias: las carreras openases para un cómputo más externo, mientras que Microsoft y otras compañías como Tencent construyen más optimizadas tuberías internas. Estrategia después del momento”Sputnik”de Deepseek
El ascenso de Deepseek también encaja perfectamente en la estrategia de IA más amplia de China. En respuesta a las restricciones de exportación de EE. UU. En chips avanzados, muchas empresas tecnológicas chinas están recurriendo a la fuente abierta de sus modelos. Este enfoque permite una iteración más rápida, fomenta la adopción global y reduce el costo de la capacitación. Para Tencent, la adopción de los modelos más abiertos y rentables de Deepseek se alinea con estas prioridades nacionales y operativas. The Guardian describió su surgimiento como un “Momento Sputnik” Para la industria de la IA de los EE. UU., Con $ 1 billón brevemente eliminados de valoras tecnológicas globales después de su debut. Si bien la viabilidad a largo plazo de los modelos de Deepseek dependerá del rendimiento del mundo real, la escala y el escrutinio regulatorio, la tendencia no es manejable. Los desarrolladores chinos están construyendo modelos de IA altamente capaces que utilizan menos chips y menos capital, eliminando el modelo tradicional de éxito basado únicamente en la escala y el cálculo. Hay advertencias. Tencent ha tenido que comprar grandes cantidades de chips H20 de NVIDIA para mantener la prestación de servicios, a pesar de las reducciones generales en el uso de GPU. Estos modelos aún requieren hardware de backend robusto, y la capacidad de China para mantener el suministro sigue siendo incierta bajo las restricciones en curso en los Estados Unidos. Aun así, la estrategia de Tencent envía una señal clara. La eficiencia, no la expansión, se está convirtiendo en el nuevo estándar. A medida que las empresas tecnológicas globales evalúan el costo de la escala y la fragilidad de las cadenas de suministro, modelos como Deepseek R2 ofrecen un plan diferente: más pequeño, más inteligente y posiblemente más sostenible. la industria se dirige hacia la optimización de inferencia
La salida de CoreWeave de Microsoft destaca un cambio más amplio