Google DeepMind utvider tilgangen til musikken AI Sandbox, og utstyrer plattformen med sin oppdaterte Lyria 2 Music Generation-modell og introduserer nye funksjoner rettet mot musikere, låtskrivere og produsenter. Denne utvidelsen posisjonerer musikken AI

Sandbox som et samarbeidsverktøysett for skapere, ankommer kort tid etter Lyrias første debut i et begrenset foretaksforhåndsvisning og mot et bakteppe av pågående bransjekonvensjon om bruk av Copyright-materialet for å trene AI Music Models.

The Updated Music A Sand Box gir en Suit-modeller.

den oppdaterte musikken Ai BOX gir en suit av eksperiment. href=”https://deepmind.google/technologies/lyria/”Target=”_ blank”> Lyria 2 , som selskapet hevder produserer høykvalitet, profesjonell klasse 48kHz stereo lydutganger på tvers av forskjellige sjangre.

En beslektet modell, Lyria Realtime , gir mulighet for interaktiv musikkskaping og manipulering på farten. Viktige funksjoner i sandkassen inkluderer ‘Create’, som genererer musikalske deler fra tekstbeskrivelser eller brukerstilte tekster; ‘Extend’, designet for å generere musikalske fortsettelser fra eksisterende lydklipp, rettet mot å vekke ideer; og ‘rediger’, som gir kontroller for å transformere stemningen eller stilen til lydklipp ved hjelp av forhåndsinnstillinger eller tekstforespørsler og kan også blande forskjellige seksjoner.

Google rammer denne utviklingen som en utvidelse av det langsiktige engasjementet med musikksamfunnet, og refererer til arbeidet som dateres tilbake til Magenta Project I 2016 og innlemmet tilbakemelding samlet gjennom YouTubes musikk AI-inkubator. Foreløpig er bredere tilgang utover innledende testere begrenset til amerikanske baserte skapere som melder seg på via en WaitList .

Google Music AI Sandbox (Kilde: Google)

Artister involvert i tidlig testing tilbød positive innledende reaksjoner. Isabella Kensington, en TuneCore-artist, beskrev den som”morsom og unik opplevelse”, og fremhever”utvidet”-funksjonen for å hjelpe til”å formulere forskjellige veier for produksjon, samtidig Adrie, en tro kunstner, syntes det var nyttig å eksperimentere, men la til perspektivet om at”musikk alltid vil trenge et menneskelig berøring bak det.”Sidecar Tommy bemerket å generere orkestrasjoner, og sa at det “ga meg drivstoff for å gå ned en vei jeg ikke ville ha gått!”

[innebygd innhold] [innebygd innhold]

Navigering av copyright-minefeltet

Google’s Expansion of Its Music AI-verktøyet kommer som bransjens konfronterer de bransjene som bransjens. I juni 2024 anla Recording Industry Association of America (RIAA), som representerer store etiketter, søksmål mot AI-musikkstart Suno og Udio, og påsto brudd på masseopphavsretten gjennom uautorisert skraping og bruk av beskyttede sanger. RIAA-styreleder og administrerende direktør Mitch Glazier uttalte den gangen, “ulisensierte tjenester som Suno og Udio som hevder at det er‘ rettferdig ’å kopiere en kunstners livsverk… Sett tilbake løftet om virkelig nyskapende AI for oss alle.”Søksmålene ( suno klage , udio-klagen Søk skader opp til $ 150 000 per arbeid.

Suno Bruk”lære som et forsvar. Udio argumenterte spesielt for at systemet”lytter til musikk som ligner en menneskelig student, og lærte underliggende”musikalske ideer”for å lage”nye musikalske ideer”, og hevder at det er”helt uinteressert i å reprodusere innhold i treningssettet vårt.”

RIAA motvirket er ikke kraftig , å kalle selskapene til å trene på innspilling en”major konsesjon og reitating at det bruker kunstner som bruker kunstner som skal litere uten å Denne juridiske avstanden fremhever det komplekse terrenget Google også står overfor. Selskapet legger vekt på en ansvarlig tilnærming, og sier at Lyria 2-utganger er vannmerket ved hjelp av synthid-teknologien.

Synthid, nå utvidet utover lyd, innebærer et umerkelig digitalt signal direkte i lydbølgeformens spektrogram, designet for å overleve vanlige modifikasjoner som MP3-komprimering, potensielt å hjelpe TRAGE-opprinnelsen til generert audio. I likhet med mange AI-utviklere under granskning, har Google imidlertid ikke detaljert de spesifikke datasettene som brukes til å trene Lyria. 

Del av et bredere AI Media Push

Den bredere tilgjengeligheten av musikken AI Sandbox følger Lyrias første opptreden i begynnelsen av april 2025 på Googles Vertex AI-plattform, som fungerer som Google Cloud’s Primary Managed Machine Learning for Enterprise-brukere.

Denne primære Rollout Rebors A-strategi for en strategi for å få en strategi for å få en strategi for å få en strategi for å få en strategi. Verktøy som sandkassen for individuelle skapere, muligens traktet gjennom plattformer som Googles AI-studio . Lyria slutter seg til andre Google Generative Media-modeller som nylig er oppdatert eller introdusert, inkludert VEO 2 Video Generator, CHIRP 3 Audio Model (med stemmekloningsfunksjoner), og Imagen 3 Image Generator, alle rettet mot å styrke Vertex AIs suite.

det å utvikle AI Audio-landskapet. Konkurrentstabilitet AI ga ut stabil Audio 2.0 i april 2024, og ga Gratis Web Access For å generere spor opp til tre minutter lange og tillate brukere til å belastet til å redusere ene-prøvet-prøvene for å få en funksjon til å få en funksjon til å få en funksjon til å få en funksjon til å likt. Funksjon.

Stabilitet AI samarbeidet med Audible Magic for Copyright-sjekker. Derimot kunngjorde Nvidia sin Fugatto-lydmodell i november 2024, men valgte å ikke gi den ut offentlig på grunn av potensielle bekymringer for misbruk.”Enhver generativ teknologi bærer alltid noen risikoer, fordi folk kan bruke det for å generere ting som vi foretrekker at de ikke gjør det,”sa Nvidias Bryan Catanzaro den gang.

Disse teknologiske fremskrittene fortsetter å gi debatten om AIs rolle. Mens noen skapere ser på verktøy som musikken AI Sandbox som forsterker menneskelig evne, bekymrer andre seg for forskyvningen av menneskelig kreativitet, ekko