Nvidia a lancé son programme de fusion NVLink à Taipei lors de la conférence Calpex. L’initiative ouvre la technologie d’interconnexion propriétaire de NVIDIA, permettant aux partenaires de créer des systèmes d’intelligence artificielle semi-personnalisées. Ces systèmes s’intégreront aux technologies NVIDIA existantes.

Ce développement permet aux entreprises comme Qualcomm et Fujitsu de jumeler leurs unités de traitement central personnalisées (CPU) avec les unités de traitement graphique de NVIDIA (GPU). La stratégie de Nvidia a l’intention de cultiver un écosystème matériel d’IA plus adaptable. En fin de compte, la société cherche à élargir son influence significative du marché dans le secteur de l’IA.

L’initiative positionne également stratégiquement nvidia contre les efforts concurrents, notamment le ultra accélérateur lien (ualink) consortium . Le groupe vise à établir des normes d’interconnexion ouvertes. Le PDG de Nvidia Jensen Huang NvLink Fusion: Architecting Les systèmes AI de nouvelle génération

NVIDIA’s NVLink Fusion fournit un tissu à grande vitesse essentiel pour exiger les charges de travail d’IA. La technologie offre jusqu’à 14 fois la bande passante de PCIe Gen5 et offre une latence plus faible pour la communication directe GPU-GPU et CPU-GPU. Ces performances sont essentielles pour l’évolutivité et l’efficacité des grands modèles d’IA.

La société a indiqué sa plate-forme NVIDIK NVIDIA de cinquième génération, avec des systèmes comme le nvidia gb200 nvl72 et gb300 nvl72 , fournit 1,8 terabytes par seconde de la bande passante totale par GPU, selon deux. Une configuration connecte les processeurs personnalisés aux GPU NVIDIA. L’autre relie les processeurs Grace (et futurs Vera) de Nvidia à des accélérateurs d’autres fournisseurs. L’intégration peut se produire en incorporant NVLink IP dans une conception de puces personnalisée ou en utilisant un chiplet d’interconnexion, qui a déjà collé.

Cependant, une stipulation clé est que l’un des principaux composants d’un appariement de fusion NVLink doit provenir de Nvidia. Cela signifie, par exemple, un processeur Intel ne peut pas se connecter directement à un GPU AMD en utilisant ce cadre NVIDIA spécifique. Dion Harris, directrice principale de Nvidia des usines HPC et AI, Clarification COMPUTE AI ET DES CONSEILS DE RACK. Cela peut impliquer des configurations comme un processeur personnalisé associé à des GPU Blackwell, ou le CPU Grace de Nvidia avec un calcul AI personnalisé.

Les alliances en expansion et les capacités écosystémiques

Plusieurs sociétés technologiques majeures se sont alignées avec la Nvlink Fusion Initiative. Qualcomm rentre sur le marché du processeur du centre de données et utilisera la nouvelle interface. Cristiano Amon, président et chef de la direction de Qualcomm Technologies, a indiqué que leur technologie de processeur personnalisée avancée, associée à la plate-forme d’IA complète de NVIDIA, fournira une intelligence puissante et efficace à l’infrastructure du centre de données.

Fujitsu prévoit également d’intégrer son prochain 2-nanomètre, basé sur ARM Fujitsu-Monaka Cpus avec l’architecture de Nvidia. Vivek Mahajan, le CTO de Fujitsu, a décrit cette collaboration comme une «pas en avant monumentale» pour l’évolution de l’IA, visant des systèmes d’IA évolutifs et durables.

Au-delà des fabricants de processeurs, des entreprises telles que Mediatek et Marvell sont prêtes à développer des accélérateurs d’IA personnalisés. Rick Tsai, vice-président et chef de la direction de MediaTek, a expliqué que leur partenariat utilise les services de conception ASIC de MediaTek et l’expertise d’interconnexion à grande vitesse pour construire une infrastructure d’IA de nouvelle génération. Bande passante et fiabilité nécessaires.

L’écosystème bénéficie en outre de la prise en charge des sociétés de logiciels de conception de puces Synopsys et de la cadence et de l’interconnectivité spécialiste du silicium Astera Labs. Nvidia a également annoncé son Nvidia Mission Control , une plate-forme unifiée pour les opérations et l’orchestration dans ces environnements AI complexes, selon le Nvidia Newsroom.

De plus, NVIDIA a lancé une nouvelle version à puce unique de son CPU Grace (C1), conçu pour des conseils de serveur à l’aide de GPU AMD, avec des partenaires tels que Jabil et FoxConn. Nvidia a également introduit dgx lingon AT computex, a un bilk”conçu pour les développeurs DGX avec un LEPTON AT REPUTEX, un bilans conçu pour les développeurs DGX avec un Cloud Lepton GPU Calculez l’écosystème. 

Pospective du marché stratégique et perspectives de l’industrie

L’introduction par NVIDIA de la fusion NVLink est une manœuvre stratégique claire pour préserver et étendre sa domination dans le secteur matériel IA farouchement compétitif. En rendant sa technologie d’interconnexion propriétaire plus accessible, NVIDIA favorise l’adoption plus large de sa plate-forme tout en répondant à la demande croissante de personnalisation. 

Le programme permet également aux fournisseurs de cloud à mettre à l’échelle leurs usines d’IA en utilisant une variété d’ASIC en conjonction avec les systèmes à échelle à rack de Nvidia et sa suite de réseautage complète, qui comprend et Spectrum-x Ethernet , selon Nvidia.

Ce développement est en tant que consortium Ualin. Les réactions de l’industrie à la stratégie de Nvidia sont variées. Certains analystes expriment la prudence; Par exemple, Ainvest a publié un commentaire “Posteing nvink fusion pourrait établir un”LOVE-LOOP FERM monopoliser l’infrastructure d’IA.

Categories: IT Info