Google Deepmind erweitert den Zugang zu seiner Musik-AI-Sandbox, rüstet die Plattform mit seinem aktualisierten Lyria 2 Music-Generation-Modell aus und führt neue Funktionen für Musiker, Songwriter und Produzenten vor. Diese Expansion positioniert die Musik-Ai

Sandbox als kollaboratives Toolset für Schöpfer, kurz nach Lyriens anfänglichem Debüt in einer begrenzten Unternehmensvorschau und vor dem Hintergrund der laufenden Branchenkonkurrenz über den Einsatz von urheberrechtlich geschütztem Material für Training AI-Musikmodelle. href=”https://deepmind.google/technologies/lyria/”target=”_ leer”> lyria 2 , die das Unternehmen behauptet, erzeugt eine 48-kH-Stereo-Audio-Ausgabe von professionellem Grade professionell in verschiedenen Genres. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mty1MzoyMjg=-1; Base64, PHN2ZyB2AWV3QM94PSIWIDAGOTYWIDU0 Mcigd2lkdgg9ijk2mcigagvpz2h0psi1ndaiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”>

Ein verwandtes Modell, Lyria Echtzeit , ermöglicht eine interaktive Musikerstellung und-manipulation im Fliegen. Zu den wichtigsten Merkmalen in der Sandbox gehören”Create”, das musikalische Teile aus Textbeschreibungen oder von Benutzer bereitgestellten Texten erzeugt. „Extend“, das zur Erzeugung musikalischer Kontinuationen aus vorhandenen Audioclips entwickelt wurde, die darauf abzielen, Ideen auszulösen; und”bearbeiten”, die Steuerelemente zur Transformation der Stimmung oder des Stils von Audioclips mithilfe von Voreinstellungen oder Textaufforderungen bereitstellen und auch verschiedene Abschnitte mischen können. href=”https://magenta.withgoogle.com/blog/2016/06/01/welcome-to-magenta/”target=”_ leer”> Magenta-Projekt im Jahr 2016 und ein Feedback, das über YouTube-Musik-AI-Inkubator gesammelt wurde. Derzeit ist ein breiterer Zugriff über die ersten Tester auf US-amerikanische Ersteller beschränkt, die sich über einen Warteliste .

Google Music AI Sandbox (Quelle: Google)

Künstler, die an frühen Tests beteiligt sind, boten positive anfängliche Reaktionen. Isabella Kensington, eine Tunecore-Künstlerin, beschrieb es als”lustige und einzigartige Erfahrung”und hob die”Extend”-Funktion für die Hilfe”Formuliert verschiedener Wege für die Produktion und Bereitstellung von Platz für mein Songwriting”. Adrie, ein Glaubenskünstler, fand es für das Experimentieren nützlich, fügte jedoch die Perspektive hinzu, dass „Musik immer eine menschliche Note dahinter benötigt.“ Sidecar Tommy bemerkte, dass er Orchestrierungen erzeugt und sagte, es gab mir den Kraftstoff, einen Weg zu gehen, den ich nicht gegangen wäre!”Im Juni 2024 reichte die Recording Industry Association of America (RIAA), die wichtige Labels vertritt, Klagen gegen AI-Musikstartups Suno und Udio ein, wobei sie durch unbefugtes Schablonen und die Verwendung geschützter Songs Massen-Urheberrechtsverletzungen behauptet. Mitch Glazier, Vorsitzender und CEO von RIAA, erklärte zu dieser Zeit:”Nicht lizenzierte Dienste wie Suno und Udio, die behaupten, es sei”fair”, das Lebenswerk eines Künstlers zu kopieren… das Versprechen einer wirklich innovativen KI für uns alle zurück.”Die Klagen ( Suno-Beschwerde , udio-Beschwerde ) Suchen Sie nach Schadenersatz bis zu 150.000 USD pro Arbeit. Lehre als Verteidigung. Udio argumentierte ausdrücklich, dass sein System der Musik, die einem menschlichen Schüler ähnelt, „zuhört“, und lernte zugrunde liegende „musikalische Ideen“, um „neue musikalische Ideen“ zu erstellen, und behauptet, es sei „völlig uninteressiert an der Reproduktion von Inhalten in unserem Trainingssatz“.

the riaa konterte mit Gewalt , nennen die Unternehmenseintrittszusagen die Aufzeichnungen von”Major Concession”und das Wiederholen von Artikern, ohne dass sie gegen sie konkurrieren. Dieser legale Pattsituation hebt das komplexe Gelände auf, mit dem Google ebenfalls ausgesetzt ist. Das Unternehmen betont einen verantwortungsvollen Ansatz und erklärt, dass Lyria 2-Ausgaben mit seiner Synthid-Technologie mit Wasserzeichen versehen sind. Wie bei vielen AI-Entwicklern unter der Prüfung hat Google jedoch die spezifischen Datensätze, die zum Training von Lyrien verwendet werden, nicht detailliert beschrieben. 

Teil eines breiteren AI-Medien-Push

Die breitere Verfügbarkeit der Musik-AI-Sandbox folgt Lyriens anfänglichem Auftritt Anfang April 2025 auf der Vertex-AI-Plattform von Google. Tools wie die Sandbox für einzelne Ersteller, möglicherweise durch Plattformen wie AI Studio von Google . Lyria beiträgt andere Google Generative Media-Modelle an, die kürzlich aktualisiert oder eingeführt wurden, einschließlich des VEO 2-Videogenerators, des Chirp 3-Audiomodells (mit Sprachklonierungsfunktionen) und dem Imageen 3-Bildgenerator, das darauf abzielt, die Vertex-AI-Suite zu verbessern. Die Wettbewerbsstabilität AI veröffentlichte im April 2024 Stable Audio 2.0 und bietet kostenloser Webzugriff Für die Erzeugung von Tracks bis zu drei Minuten lang langen Nutzer und Ermöglichung von Benutzern, ihre eigenen Audio-Samples für AI-Funktionen zu hochladen.

Stability AI hat sich mit Audible Magic für Urheberrechtsprüfungen zusammengetan. Im Gegensatz dazu kündigte Nvidia im November 2024 sein Fugatto-Audiomodell an, entschied sich jedoch, es aufgrund potenzieller Missbrauchsprobleme nicht öffentlich zu veröffentlichen.”Jede generative Technologie birgt immer einige Risiken, da die Menschen dies möglicherweise nutzen, um Dinge zu generieren, die wir nicht tun würden”, sagte Bryan Catanzaro von Nvidia. Während einige Schöpfer Tools wie The Music ai Sandbox als erweiterende menschliche Fähigkeiten betrachten, machen andere sich Sorgen über die Verschiebung menschlicher Kreativität, die