Meta har gjort et betydelig skritt i AI-drevet 3D-innholdsgenerering med introduksjonen av Assetgen 2.0. Den avanserte grunnlagsmodellen er konstruert for å produsere 3D-eiendeler av høy kvalitet fra både tekst-og bildestedelser, og lovet en betydelig forbedring i detalj og troskap over forgjengeren.

Systemet bruker en ny en-trinns 3D-diffusjonsarkitektur for å skape (HI-er (

Assetgen 2.0 kan bli en spillbytter for skapere, spesielt de som utvikler seg for Metas Horizon Worlds og Avatar-plattformer. Meta tar sikte på å gjøre 3D-innholdsoppretting så tilgjengelig og effektiv som nåværende 2D-metoder, og demokratiserer dermed prosessen for et bredere spekter av brukere. Initiativet er sentralt i Metas strategi for å befolke dets virtuelle miljøer og kan markant akselerere utviklingen av oppslukende digitale opplevelser.

Joel Hesch fra Meta ga et glimt av LinkedIn, og sa:”Deling av en sniktopp med Assetgen V2 i dag. Vi har gjort enorme fremskritt med å gjøre det mulig for alle å lage enhver type 3D-modell de kan forestille seg.”Meta bruker allerede Assetgen 2.0 internt og planlegger å rulle den ut til Horizon Creators og Meta Horizon Desktop-redigereren senere i år.

Forbedringene som ble innlemmet i Assetgen 2.0, adresserer direkte de’merkbare kvalitetsproblemene’som var til stede i Assetgen 1.0, som var integrert i meta horizon desktop editor Bare forrige måned. Den nye modellen er designet for ‘geometrisk konsistens med veldig fine detaljer.’

Dette er et direkte resultat av dens overhalt arkitektur; I motsetning til den innledende versjonen som genererte flere 2D-visninger senere behandlet av et annet nevralt nettverk, genererer Assetgen 2.0 direkte 3D-eiendeler fra teksthjul, etter å ha blitt opplært på et omfattende bibliotek med 3D-modeller. Videre bemerket UploadVR også at Meta ertet den jobber med AI-evner for å generere ‘hele 3D-scener’, slik at brukere kan lage hele virtuelle verdener fra enkle spørsmål.

3D-eiendel opprettet med Assetgen 2.0 (Soure:

Evolusjon av Meta 2.0 ( Fra Metas tidligere satsing på AI-drevet 3D-innhold. I juli 2024 avduket selskapet First avduket Meta 3D Gen (forstått å være den første Assetgen 1.0), et AI-system designet for rask oppretting av detaljerte 3D-eiendeler fra tekstbeskrivelser.

det tidligere systemet, hvis blanksyrefs var https: Meta , hadde som mål å effektivisere produksjonen for sektorer som videospill, film og AR/VR ved å lage eiendeler med komplekse strukturer og bruke fysisk basert gjengivelse. Det var sammensatt av Meta 3D Assetgen for Mesh-generering og Meta 3D TextureGen for å bruke tekstur Denne direkte 3D-generasjons-tilnærmingen markerer en avgang fra den forrige flertrinns 2D-til-3D-rørledningen til forløperen, Fremskritt med Assetgen 2.0 dukker opp innenfor et stadig mer aktivt og konkurransedyktig felt av AI-drevet 3D-innholdsoppretting. Andre viktige bransjeaktører har konsekvent utviklet og lansert sine egne innovative verktøy. For eksempel introduserte Stability AI sin stabile Fast 3D-modell i august 2024, som var i stand til å produsere 3D-bilder fra et enkelt inngangsbilde i bare et halvt sekund. Dette ble presentert som en forbedring i forhold til stabilitet AIs tidligere triposr-modell . Stabil Fast 3D er tilgjengelig via API, den stabile assistenten og dens Project Page Under en Community License.

Nylig, Roblox Design Design Desagne til Community. Roblox forklarte at systemet unikt tokeniserer 3D-former for å konstruere objekter og har til hensikt at Cube 3D skal utvikle seg til et multimodalt AI-system som er i stand til å behandle tekst, bilder og video. Denne open source-tilnærmingen fra Roblox tilbyr en kontraststrategi til Metas nåværende plattformfokuserte distribusjon av Assetgen 2.0.

Denne utviklingen fulgte tidligere betydelige bidrag, for eksempel Openais utgivelse av Shap · E i mai 2023. Shap · E kunne generere 3D-eiendeler fra tekst ved å lage parametre for implicit-funksjon, inkludert Neural Radiance Fields (nerfs) , med sin modell og kode delt på github . Den pågående innovasjonen fremgår også av stabilitet AIs forbedringer i 2023 til stabil diffusjon, som introduserte stabile 3D-evner, og fremhever et vedvarende bransje-dytt mot mer sofistikert og brukervennlig 3D AI-verktøy. demokratisering og fremtidig mulighet til å produsere demokratisering og fremtidig. eiendeler. Selskapet har indikert at Assetgen i løpet av de kommende månedene vil bli en ‘grunnleggende byggestein for å muliggjøre auto-regressiv generering av hele 3D-scener,’ som kan representere en ‘trinnfunksjonsendring i skapelsen for våre brukere.’

Denne evnen kan drastisk senke barrieren for innreise for å skape komplekse virtuelle miljøer, og gi en mer diversing av å skape skapere. Mens Metas offisielle kommunikasjon har en forståelig salgsfremmende tone angående potensialet til å sette nye bransjestandarder, virker den underliggende teknologiske fremgangen betydelig.

Drevet for å demokratisere 3D-innholdsoppretting er et vanlig tema i hele bransjen. Imidlertid vil den endelige effekten av verktøy som Assetgen 2.0 hengslet seg på deres virkelige ytelse, enkel integrasjon i kreative arbeidsflyter og bred tilgjengelighet når de er distribuert. Den kommende utgivelsen til Horizon Desktop Editor senere i år vil tjene som en avgjørende test av Assetgen 2.0s praktiske nytteverdi og dens kapasitet til å virkelig forenkle 3D-oppretting til nivået av 2D-innholdsutvikling. Meta fortsetter å investere i denne visjonen, med pågående rekruttering for Forskere og ingeniører For å videreføre denne innsatsen.

Categories: IT Info