Meta ha fatto un passo significativo nella generazione di contenuti 3D guidata dall’IA con l’introduzione di AssetGen 2.0. Il modello di fondazione avanzata è progettato per produrre risorse 3D di alta qualità da istruzioni sia di testo che di immagini, promettendo un sostanziale miglioramento nei dettagli e la fedeltà sul suo predecessore.
Il sistema impiega una nuova architettura a diffusione 3D a maga Creation
Assetgen 2.0 potrebbe diventare un punto di svolta per i creatori, in particolare quelli che si sviluppano per i mondi Horizon e le piattaforme avatar di Meta. Meta mira a rendere la creazione di contenuti 3D come accessibile ed efficiente come gli attuali metodi 2D, democratizzando così il processo per una gamma più ampia di utenti. L’iniziativa è fondamentale per la strategia di Meta per popolare i suoi ambienti virtuali e potrebbe accelerare notevolmente lo sviluppo di esperienze digitali immersive.
>
Joel Hesch di Meta ha offerto uno sguardo a LinkedIn, affermando:”Condividendo un’anteprima di Assetgen V2 oggi. Abbiamo fatto enormi progressi nel consentire a chiunque di creare qualsiasi tipo di modello 3D che possano immaginare”. Meta sta già utilizzando AssetGen 2.0 internamente e prevede di lanciarlo ai creatori di Horizon e all’editor Desktop Meta Horizon entro la fine dell’anno.
I miglioramenti incorporati in AssetGen 2.0 affrontano direttamente i”problemi di qualità evidenti”che erano presenti in AssetGen 1.0, che erano integrati in Meta Horizon Desktop Editor Solo il mese scorso. Il nuovo modello è progettato per”coerenza geometrica con dettagli molto fini.”
Questo è un risultato diretto della sua architettura revisionata; A differenza della versione iniziale che ha generato più viste 2D successivamente elaborate da un’altra rete neurale, AssetGen 2.0 genera direttamente le risorse 3D da istruzioni di testo, essendo stata addestrata su una vasta libreria di modelli 3D. Inoltre, uploadvr ha anche notato che la meta è in giro sta lavorando alle funzionalità di AI per generare”intere scene 3D”, consentendo agli utenti di creare interi mondi virtuali da semplici istruzioni.
3D Asset creata con AssetGen 2.0 (meta: META: META: META: META: META: META ASTETGEN. Precedenti si avventura nel contenuto 3D guidato dall’IA. Nel luglio 2024, la società ha presentato per la prima volta Meta 3D Gen (inteso come AssetGen 1.0 iniziale), un sistema di AI progettato per la rapida creazione di risorse 3D dettagliate da descrizioni testuali.
quel sistema precedente, il cui href=”href=”https://ai.meta.com/research/publications/meta-3d-3d=”Pubblicato da Meta , mirato a semplificare la produzione per settori come videogiochi, film e AR/VR creando risorse con trame complesse e utilizzando rendering fisico. È stato composto da Meta 3D AssetGen per la generazione di mesh e la textugen Meta 3D per l’applicazione di trame, offrendo secondo quanto riferito, offrendo velocità da tre a dieci volte più veloci delle soluzioni disponibili in quel momento.
Il cambiamento architettonico centrale in Assetgen 2.0 si trova nella sua risoluzione a singola fase di diffusione 3D. Questo approccio diretto di generazione 3D segna una partenza dalla precedente pipeline 2D-a-3D multi-stage del suo precursore, Assetgen 1.0 .
il paesaggio più ampio di Ai 3d Generation . Stabile veloce 3D è accessibile tramite API, l’assistente stabile, e il suo Pagina del progetto Sotto una licenza della comunità.
più recente Roblox ha spiegato che il suo sistema tokenizza in modo univoco le forme 3D per costruire oggetti e intende che Cube 3D si evolva in un sistema di intelligenza artificiale multimodale in grado di elaborare testo, immagini e video. Questo approccio open source di Roblox offre una strategia contrastante all’attuale distribuzione focalizzata sulla piattaforma di AssetGen 2.0.
questi sviluppi hanno seguito i precedenti contributi significativi, come il rilascio di Openai di Shap · E nel maggio 2023. La forma potrebbe generare beni 3D dal testo creando parametri per le funzioni implicite, incluso campi di radiazione neurale (nerfs) , con il suo modello e codice condivisi su github . L’innovazione in corso è anche evidente dai miglioramenti del 2023 di Stability AI alla diffusione stabile, che ha introdotto capacità 3D stabili, mettendo in evidenza una spinta a livello di settore prolungata verso strumenti 3D 3D più sofisticati e user-friendly. beni. La società ha indicato che nei prossimi mesi, Assetgen diventerà un”elemento fondamentale per consentire la generazione auto-regressiva di intere scene 3D”, che potrebbe rappresentare un”cambio di funzione di gradino nella creazione per i nostri utenti.”
Questa capacità potrebbe abbassare drasticamente la barriera all’ingresso per la creazione di ambienti virtuali complessi, potenziando un gruppo più diversificato di creatori. Mentre le comunicazioni ufficiali di Meta hanno un tono comprensibilmente promozionale per quanto riguarda il potenziale per stabilire nuovi standard del settore, il progresso tecnologico sottostante appare sostanziale.
La spinta a democratizzare la creazione di contenuti 3D è un tema comune in tutto il settore. Tuttavia, l’impatto finale di strumenti come AssetGen 2.0 dipenderà dalle loro prestazioni del mondo reale, facilità di integrazione nei flussi di lavoro creativi e ampia accessibilità una volta distribuiti. La prossima uscita all’Editor Desktop Horizon entro la fine dell’anno fungerà da test cruciale dell’utilità pratica di Assetgen 2.0 e la sua capacità di semplificare veramente la creazione 3D al livello dello sviluppo del contenuto 2D. Meta continua a investire in questa visione, con il reclutamento in corso per scienziati e ingegneri Per promuovere questi sforzi.