In una mossa pragmatica che colpisce due ecosistemi storicamente rivali, Apple sponsorizza un progetto a . L’iniziativa open source aggiunge un backend CUDA a MLX, Toolkit di Apple per lo sviluppo dell’intelligenza artificiale su Apple Silicon.
Questo consente a un nuovo potente flusso di lavoro: gli sviluppatori possono scrivere e testare le applicazioni di intelligenza artificiale su un Mac standard e quindi distribuire lo stesso codice per funzionare su NVIDIA GPU ad alte prestazioni. La strategia mira a tagliare i costi di sviluppo utilizzando i Mac di livello consumer per il lavoro locale prima di ridimensionare un costoso hardware del data center.
Il progetto, che ha iniziato lo sviluppo nel marzo 2025
al suo interno, l’iniziativa riguarda il miglioramento di Experience . L’obiettivo dichiarato del progetto è consentire agli sviluppatori di”scrivere/test del codice a livello locale su un Mac e quindi distribuire su super computer”, creando un flusso di lavoro senza soluzione di continuità. La costruzione e il debug di modelli complessi richiedono un’iterazione significativa e lo consente su un Mac di silicio Apple accessibile, noto per il suo efficiente architettura di memoria unificata Le configurazioni di hardware ad alte prestazioni di Nvidia possono essere proibitive, spesso costano molte volte più di un Mac di prima specifica. Abilitando lo sviluppo sul proprio hardware, Apple consente alle organizzazioni di risparmiare un capitale significativo, abbassando la barriera all’ingresso per le startup e riducendo i costi operativi per i progetti AI aziendali su larga scala prima che debbano scalare. href=”https://www.forbes.com/sites/marcochiappetta/2018/12/11/apple-tourns-its-back-on-customers-and-nvidia-with-macos-mojave/”target=”_ blank”> ha visto il supporto per i driver di mela nel 2018
Chiarire la strada a senso unico: ciò che questo progetto non è
È fondamentale comprendere l’ambito preciso del progetto, poiché i suoi limiti sono significativi quanto le sue capacità. Questo è un ponte a senso unico, progettato esclusivamente per esportte da un codice Mlx afritty su NVIDABILE-TOPABLE-a–nvidia-hardware”Target=”_ Blank”> Export dal codice Mlx SOFRIME su NVIDABLE-a-Portable-to-nvidiable-hardware”hardware.
Questo significa che i programmi costruiti contro MLX possono sfruttare i chip abilitati per Cuda, ma non significa che la vasta libreria di applicazioni cuda-native esistenti può improvvisamente funzionare su Apple Silicon. Il livello di traduzione funziona in una sola direzione.
Inoltre, l’iniziativa non segnala un ritorno del supporto hardware nvidia fisico per macOS. Gli utenti non dovrebbero aspettarsi di collegare una scheda NVIDIA a un Mac Pro o un involucro EGPU per l’accelerazione ML locale.
ostacoli tecnici sul silicio Apple, come il modo in cui l’architettura gestisce la mappatura della memoria per i dispositivi PCIe, rendono i driver GPU esterni un quasi immensità. Il progetto riguarda esclusivamente l’interoperabilità del software e del flusso di lavoro, non sull’integrazione hardware.
La scelta strategica per un ponte a senso unico su un clone CUDA completo è anche un cenno al campo minato legale che circonda l’ecosistema di Nvidia. Una reimplementazione di CUDA della sala pulita affronterebbe immense sfide, dalla potenziale violazione dei brevetti alla pura complessità della replica delle biblioteche altamente ottimizzate e chiuse della source.
Il regno di CUDA e la battaglia per l’ecosistema
Questo sviluppo si svolge su uno sfondo di feroce competizione. Il CUDA di Nvidia è il re indiscusso: un ecosistema proprietario ma profondamente integrato di software e librerie che crea un potente moat attorno al suo hardware . Per anni, i concorrenti hanno lottato per offrire un’alternativa praticabile .
amd, nvidia di una campagna a lungo termine. href=”https://www.phoronix.com/news/amd-rocm-7.0-aligns-with-cuda”target=”_ blank”> piattaforma rocm open-source . La società ha recentemente annunciato UDNA, un’architettura GPU unificata per unire le sue linee di consumatore e data center per sfidare meglio la singolare piattaforma coesa di Cuda.
L’intensità di questa corsa agli armamenti è palpabile. A giugno, AMD ha lanciato la sua serie MI350 di istinto come concorrente diretto della piattaforma Blackwell di prossima generazione di Nvidia. Jensen Huang, CEO di Nvidia, ha definito il lancio di Blackwell”la rampa di prodotto più veloce nella storia della nostra azienda, senza precedenti nella sua velocità e scala.”
consentendo un percorso per Cuda, Apple elabora questo confronto diretto. Consente al framework MLX di coesistere, piuttosto che tentare inutilmente di sostituire, lo standard del settore. Questo approccio pragmatico garantisce che gli sviluppatori che utilizzano gli strumenti di Apple rimangono rilevanti in un mondo dominato in modo schiacciante da Nvidia.