Nvidia ha introducido la familia Llama Nemotron de modelos de IA de razonamiento abierto, marcando un cambio significativo hacia la autonomía de IA.

Los modelos están construidos para admitir sistemas de AI de agente, AI, capaces de razonar, planificar y ejecutar tareas de varios pasos. A diferencia de la IA convencional, que sigue las respuestas preprogramadas, el razonamiento de la IA se adapta dinámicamente, lo que lo hace valioso para las aplicaciones en robótica, automatización y procesos de toma de decisiones.

this

nvidia expande la autonomía de AI con modelos de razonamiento abiertos

the Llama Nemotron Models Esto permite que la IA active un razonamiento profundo cuando sea necesario al conservar los recursos computacionales para tareas más simples, reduciendo significativamente los costos de inferencia. Esta flexibilidad los hace muy adaptables a través de la IA empresarial, la automatización y los sistemas basados ​​en la nube.

Los modelos están disponibles en tres tamaños como nvidia nim nim microservicios —nano, super, y ultra ultra: optimizados para los entornos de los dientes de los dedados de los dedes de los dedados de los dados de los dedados. Aplicaciones de computación.

El modelo nano está optimizado para PC y dispositivos de borde, entregando los resultados más precisos en esos entornos. El súper modelo está diseñado para configuraciones de una sola GPU, equilibrando la precisión de nivel superior con alta velocidad de procesamiento. Meanwhile, the Ultra model is built for multi-GPU servers, ensuring the highest level of accuracy for agentic AI tasks.

NVIDIA says they carried out extensive post-training on their DGX Cloud , aprovechando datos sintéticos curados de alta calidad producidos por Nvidia Nemotron y otros modelos abiertos. Además, el proceso incorporó conjuntos de datos seleccionados que fueron desarrollados conjuntamente por NVIDIA.

Además, NVIDIA tiene Nemotron de LLAMA completamente integrado en su

Expandir el razonamiento de IA a la visión: Cosmos nemotron

mientras que el nemotron nemotron está optimizado para el razonamiento basado en el texto y el razonamiento computacional, la introducción de enero, la introducción de enero, introducción en enero, introducida en Jan, introducida en Jan, introducida en Jan, introducida en Jan, introducción de Newuidia en Jan, introducida en Jan, introducida en Jan, introducida en Jan, introducida en Janz. href=”https://build.nvidia.com/nvidia/cosmos-nemotron-34b”target=”_ blank”> nvidia cosmos nemotron Modelos de lenguaje de visión (VLMS), que se centran en la integración del idioma de la visión. Los modelos permiten a la IA analizar imágenes, videos y datos del sensor del mundo real, proporcionando capacidades de razonamiento multimodal más amplias.

Esto extiende el trabajo anterior de Nvidia con el Modelo de Cosmos World Foundation (WFM) Plataforma , que ayuda a los desarrolladores a crear un photorealealics de los desarrolladores. Al integrar el razonamiento basado en texto y basado en la visión, NVIDIA tiene como objetivo desarrollar sistemas de IA que sean efectivos en la conducción autónoma, la robótica y la automatización industrial.

La adopción empresarial y AI-Q Blueprint

NVIDIA’s PUSH para el agente AI ya está siendo adoptada por las principales compañías como SAP, SAPICENOW, UBER. Cada una de estas organizaciones está integrando Llama Nemotron y Cosmos Nemotron en sus flujos de trabajo para mejorar la eficiencia y las capacidades de toma de decisiones.

Por ejemplo, ServiceNow está incorporando Llama Nemotron en su ecosistema AI Enterprise para optimizar la automatización de negocios. Uber está aprovechando los modelos de AI de razonamiento de NVIDIA para mejorar los sistemas de seguridad de conducción autónoma, mientras que XPENG está utilizando Cosmos Nemotron para impulsar la innovación en robótica humanoide.

Para facilitar el desarrollo de agentes de IA colaborativos, NVIDIA también ha introducido el AI-Q BluePrint . El marco ayuda a las empresas a estructurar equipos de agentes de IA, permitiendo que múltiples modelos interactúen de manera eficiente mientras mantienen altos niveles de rendimiento.

Optimización de los costos de IA: el marco AI-Q y la adopción empresarial

a pesar de sus ventajas, AI agente introduce nuevos desafíos computacionales. Si bien el razonamiento de la IA mejora la toma de decisiones, también requiere más potencia de procesamiento, lo que podría afectar la adopción del mundo real a escala.

nvidia ha abordado esto al permitir la activación selectiva de las funciones de razonamiento, ayudando a las organizaciones a administrar los costos, al tiempo que aún se benefician de la autonomía de AI mejorada. The long-term success of NVIDIA’s reasoning AI will depend on how well these models integrate into existing cloud and edge computing infrastructures while balancing costs and computational efficiency.

The NVIDIA Llama Nemotron Nano and Super models and NIM microservices are available as a hosted application programming interface from  build.nvidia.com y abrazando la cara.  Acceso Para el desarrollo, las pruebas y la investigación son gratuitos para los miembros del programa de desarrolladores NVIDIA.

Categories: IT Info