Meta hat mit der Einführung von AssetGen 2.0 einen erheblichen Schritt bei der Erzeugung von AI-gesteuerten 3D-Inhalten gemacht. Das Advanced Foundation-Modell ist so konstruiert, dass sie qualitativ hochwertige 3D-Vermögenswerte sowohl aus Text-als auch aus Bildaufforderungen erzeugen und eine erhebliche Verbesserung im Detail und die Treue gegenüber seinem Vorgänger verspricht. Kreation

Assetgen 2.0 könnte zu einem Game-Changer für Schöpfer werden, insbesondere für diejenigen, die sich für die Horizon-Welten und Avatar-Plattformen von Meta entwickeln. Meta zielt darauf ab, die Erstellung von 3D-Inhalten als zugänglich und effizient wie aktuelle 2D-Methoden zu gestalten und damit den Prozess für ein breiteres Spektrum von Benutzern zu demokratisieren. Die Initiative ist von zentraler Bedeutung für die Strategie von Meta zur Bevölkerung ihrer virtuellen Umgebungen und könnte die Entwicklung immersiver digitaler Erlebnisse deutlich beschleunigen. src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty2Mtoynjm=-1; Base64, Phn2ZyB2AWV3QM94psiwidagnjqWidm2 Mcigd2lkdgg9ijy0Mcigagvpz2H0pssiznjaiiHHTBG5Zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”>

Joel Hesch von Meta gab LinkedIn einen Blick auf LinkedIn und erklärte:”Teilen Sie noch heute einen kurzen Höhepunkt von Assetgen V2. Wir haben enorme Fortschritte bei der Ermöglichung der Erstellung eines beliebigen 3D-Modells gemacht, das sie sich vorstellen können.”Meta verwendet bereits intern Assetgen 2.0 und plant, es an Horizon Creators und den Meta Horizon-Desktop-Editor im Laufe dieses Jahres zu vergeben. href=”https://developers.meta.com/horizon-worlds/advanced-tools”target=”_ leer”> Meta Horizon Desktop-Editor Nur letzten Monat. Das neue Modell ist für die „geometrische Konsistenz mit sehr feinen Details“ ausgelegt.

Dies ist ein direktes Ergebnis seiner überarbeiteten Architektur. Im Gegensatz zu der anfänglichen Version, die mehrere 2D-Ansichten generiert hat, erzeugt AssetGen 2.0 direkt 3D-Vermögenswerte aus Textanforderungen, nachdem sie in einer umfangreichen Bibliothek mit 3D-Modellen geschult wurden. Darüber hinaus stellte UploadVR fest, dass meta-teared es an KI-Funktionen arbeitet, um „gesamte 3D-Szenen“ zu generieren, sodass Benutzer ganze virtuelle Welten aus einfachen Eingabeaufforderungen erstellen können. Die früheren Meta-früheren 3D-Inhalte wagen sich in KI-gesteuerte 3D-Inhalte ein. Im Juli 2024 enthüllte das Unternehmen die meta 3D-Generation (als der anfängliche Assetgen 1.0 verstanden), ein AI-System, das für die schnelle Erstellung detaillierter 3D-Assets aus textuellen Beschreibungen entwickelt wurde. Meta , zielte darauf ab, die Produktion für Sektoren wie Videospiele, Film und AR/VR zu optimieren, indem sie Assets mit komplexen Texturen herstellen und physisch basiertes Rendering nutzen. Es bestand aus Meta-3D-Assetgen für die Maschengenerierung und Meta-3D-Texturgen für die Anwendung von Texturen und bietet Berichten zufolge schneller als Lösungen, die zu diesem Zeitpunkt verfügbar sind. Dieser direkte 3D-Ansatz markiert eine Abkehr von der vorherigen mehrstufigen 2D-to-3D-Pipeline seines Forerunners, Assetgen 1,0 . Mit Assetgen 2.0 entstehen in einem zunehmend aktiven und wettbewerbsfähigen Bereich der KI-angetriebenen 3D-Inhaltserstellung. Andere bedeutende Branchenakteure haben ihre eigenen innovativen Tools konsequent entwickelt und auf den Markt gebracht. Zum Beispiel führte Stability AI im August 2024 ihr stabiles Fast 3D-Modell ein, das 3D-Bilder aus einem einzigen Eingangsbild in einer halben Sekunde erstellen konnte. Dies wurde als Verbesserung gegenüber Stabilität AIs früheren triposr-Modell dargestellt. Stabil Fast 3D ist über API, den stabilen Assistenten, und sein Projektseite Unter einer Community-Lizenz. Roblox erklärte, dass sein System 3D-Formen einzigartig tokenisiert, um Objekte zu konstruieren, und beabsichtigt, Cube 3D zu einem multimodalen AI-System zu entwickeln, das in der Lage ist, Text, Bilder und Video zu verarbeiten. Dieser Open-Source-Ansatz von Roblox bietet eine kontrastierende Strategie für die aktuelle plattformorientierte Bereitstellung von Assetgen 2.0 von Meta. Diese Entwicklungen folgten früheren wesentlichen Beiträgen, wie z. href=”https://medium.com/swlh/nerf-neural-radiance-fields-79531da37734″target=”_ leer”> Neural Radiance Fields (nerfs) , mit seinem Modell und Code, der auf github . Die fortlaufende Innovation zeigt sich auch aus der 2023-Verbesserungen von Stability AI zur stabilen Diffusion, die stabile 3D-Funktionen einführte und einen anhaltenden branchenweiten Vorstoß in Richtung anspruchsvoller und benutzerfreundlichere 3D-AI-Tools hervorhebt. Vermögenswerte. Das Unternehmen hat angegeben, dass Assetgen in den kommenden Monaten zu einem „grundlegenden Baustein für die automatische Erzeugung ganzer 3D-Szenen“ wird, die eine „Schrittfunktionsänderung in der Erstellung für unsere Benutzer“ darstellen könnte. Während die offiziellen Kommunikation von Meta einen verständlicherweise Werbeton über das Potenzial zur Festlegung neuer Branchenstandards hat, erscheint der zugrunde liegende technologische Fortschritt erheblich. Die ultimativen Auswirkungen von Tools wie Assetgen 2.0 werden jedoch von ihrer realen Leistung, einer einfachen Integration in kreative Workflows und einer breiten Zugänglichkeit nach dem Einsatz abschwächen. Die bevorstehende Veröffentlichung des Horizon Desktop-Editors später in diesem Jahr wird als entscheidender Test des praktischen Dienstprogramms von Assetgen 2.0 und der Fähigkeit, die 3D-Erstellung der 2D-Inhaltsentwicklung wirklich zu vereinfachen, wirklich dienen. Meta investiert weiter href=”https://www.metacareers.com/jobs/1365424301486680″target=”_ leer”> Ingenieure Um diese Bemühungen zu fördern.

Categories: IT Info