NVIDIA heeft de LLAMA Nemotron-familie geïntroduceerd van open redenerende AI-modellen, wat een belangrijke verschuiving markeert naar AI-autonomie.
De modellen zijn gebouwd ter ondersteuning van agentische AI-AI-systemen die in staat zijn om onafhankelijk redeneren, plannen en uitvoeren van multi-stappentaken uit te voeren. In tegenstelling tot conventionele AI, die volgt op voorgeprogrammeerde antwoorden, past AI dynamisch aan, waardoor het waardevol is voor toepassingen in robotica, automatisering en besluitvormingsprocessen.
Dit lancering Bouwt op NVIDIA-modelontwikkelingsontwikkeling, met name nemotron-4 340B-modellen. Training door middel van synthetische gegevensopwekking. Now, with the Llama Nemotron family, NVIDIA is transitioning from data-driven optimization to decision-capable AI systems that are more autonomous.
NVIDIA Vouwt AI-autonomie uit met open redeneermodellen
de llama nemotron modellen Introductie een innovatief: innovatief togelbaar redeneringsfunctie. Dit stelt AI in staat om diep redenering te activeren wanneer dat nodig is, terwijl het behouden van computationele bronnen voor eenvoudiger taken, waardoor de inferentiekosten aanzienlijk worden verlaagd. Deze flexibiliteit maakt ze zeer aanpasbaar in Enterprise AI, automatisering en cloudgebaseerde systemen.
De modellen zijn beschikbaar in drie maten als nvidia nim microServices -Super, Super, en ultra-Aktimized voor verschillende bewerkingen Edge Computing-toepassingen.
Het NANO-model is geoptimaliseerd voor pc’s en edge-apparaten en levert de meest precieze resultaten in die omgevingen op. Het SUPER-model is ontworpen voor single-GPU-opstellingen, waarbij de nauwkeurigheid van de top in evenwicht is met een hoge verwerkingssnelheid. Ondertussen is het Ultra-model gebouwd voor multi-GPU-servers, waardoor het hoogste niveau van nauwkeurigheid voor agentische AI-taken wordt gewaarborgd. Synthetische gegevens van hoge kwaliteit geproduceerd door Nvidia Nemotron en andere open modellen. Bovendien heeft de procesinvoegde samengestelde datasets die gezamenlijk zijn ontwikkeld door NVIDIA.
Bovendien heeft Nvidia Llama Nemotron volledig geïntegreerd in zijn Cosmos World Foundation Model (WFM) platform , die ontwikkelaars helpt bij het creëren van fotorealistische, fysics-aware AI-trainingsomgevingen. By integrating both text-based and vision-based reasoning, NVIDIA aims to develop AI systems that are effective in autonomous driving, robotics, and industrial automation.
Enterprise Adoption and AI-Q Blueprint
NVIDIA’s push for agentic AI is already being adopted by major companies such as SAP, ServiceNow, Uber, and XPENG. Elk van deze organisaties integreert LLAMA Nemotron en Cosmos Nemotron in hun workflows om de efficiëntie en besluitvormingsmogelijkheden te verbeteren.
Om de ontwikkeling van collaboratieve AI-agenten te vergemakkelijken, heeft NVIDIA ook de ai-q blauwdruk . Het framework helpt ondernemingen te teams van AI-agenten, waardoor meerdere modellen efficiënt kunnen communiceren met behoud van hoge prestatieniveaus.
AI-kosten optimaliseren: het AI-Q-raamwerk en de adoptie van ondernemingen
Ondanks de voorstanders, Agentische AI introduceert nieuwe computationele uitdagingen. Hoewel het redeneren van AI de besluitvorming verbetert, vereist het ook meer verwerkingskracht, die van invloed kan zijn op de acceptatie van de real-world op schaal.
NVIDIA heeft dit aangepakt door selectieve activering van redeneerfuncties toe te staan, organisaties te helpen de kosten te beheren, terwijl ze nog steeds profiteren van deze modellen effectief. Het succes op lange termijn van NVIDIA’s redenering AI zal afhangen van hoe goed deze modellen integreren in bestaande cloud-en edge computing-infrastructuren terwijl de kosten en computationele efficiëntie in evenwicht zijn.
De NVIDIA LLAMA Nemotron Nano en Super Models en NIM Microservices zijn beschikbaar als een georganiseerde applicatieprogrammeerinterface target=”_ blank”> build.nvidia.com en knuffelende gezicht. toegang Voor ontwikkeling, testen en onderzoek is gratis voor leden van het NVIDIA-ontwikkelaarsprogramma.