Google DeepMind poszerza dostęp do piaskownicy muzycznej AI, wyposażając platformę w zaktualizowany model generowania muzyki Lyria 2 i wprowadza nowe funkcje skierowane do muzyków, autorów piosenek i producentów. To rozszerzenie pozycjonuje piaskownicę muzyczną AI

jako wspólny zestaw narzędzi dla twórców, przybywając wkrótce po początkowym debiucie Lyrii w ograniczonym podglądzie przedsiębiorstw, a na tle bieżącego rywalizacji z narzędziami generującej w branży zbudowanej na najnowszym modelu muzycznym w zakresie szkolenia do treningu modeli muzycznych AI.

href=”https://deepmind.google/technologies/lyria/”target=”_ blank”> Lyria 2 , które, jak twierdzi firma, wytwarza wysoką liczbę, profesjonalną audio stereo 48KHz w różnych gatunkach.

Powiązany model, Lyria Realtime , pozwala na interaktywne tworzenie muzyki i manipulacje na muchach. Kluczowe funkcje w piaskownicy obejmują „Utwórz”, która generuje części muzyczne z opisów tekstu lub tekstów dostarczanych przez użytkownika; „Rozszerzenie”, zaprojektowane w celu generowania kontynuacji muzycznych z istniejących klipów audio, mające na celu wywołanie pomysłów; oraz „Edytuj”, który zapewnia kontrolę nad przekształceniem nastroju lub stylu klipów audio za pomocą ustawień wstępnych lub podpowiedzi tekstowych, a także może łączyć różne sekcje.

Google opracowuje ten rozwój jako rozszerzenie długoterminowego zaangażowania w społeczność muzyczną, odnosząc się do pracy z datą do projekt magenta W 2016 r. I zawierający opinie zebrane za pośrednictwem muzyki AI YouTube. Na razie szerszy dostęp poza początkowymi testerami jest ograniczony do amerykańskich twórców, którzy rejestrują się za pośrednictwem Lista oczekujących .

Google Music AI Sandbox (Źródło: Google)

Artyści zaangażowani we wczesne testy oferowali pozytywne reakcje początkowe. Isabella Kensington, artystka z Tunecore, opisała to jako „zabawne i wyjątkowe doświadczenie”, podkreślając funkcję „rozszerzenie”, aby pomóc „sformułować różne możliwości produkcji, zapewniając jednocześnie miejsce dla mojego pisania.”

Zasięg odnotował potencjał pokonania bloku pisarza: „Uważam, że jest naprawdę przydatne, aby pomóc mi w odcięciu bloku pisarza w punkcie tego punktu. Adrie, artysta, uznał go za przydatne do eksperymentowania, ale dodała perspektywę, że „muzyka zawsze będzie potrzebować ludzkiego akcentu”. Sidecar Tommy zauważył generowanie orkiestracji, stwierdzając, że „dał mi paliwo, aby pójść ścieżką, której nie poszedłbym!”

[Wbudowana treść] [Wbudowana treść]

Prowadzenie pola merytorycznego Copyright

Rozszerzenie go Google pojawia się narzędzi muzycznych AI narzędzi muzycznych. W czerwcu 2024 r. Stowarzyszenie przemysłu nagrania Ameryki (RIAA), reprezentujące główne wytwórnie, złożyło pozew przeciwko startupom muzycznym AI Suno i Udio, zarzucając masowe naruszenie praw autorskich poprzez nieautoryzowane skrobanie i korzystanie z chronionych piosenek. Przewodniczący i dyrektor generalny RIAA, Mitch Glazier, stwierdził wówczas: „Nielicencjonowane usługi, takie jak Suno i Udio, które twierdzą, że„ uczciwe “jest skopiowanie dzieła życia artysty… odzyskanie obietnicy prawdziwie innowacyjnej sztucznej inteligencji dla nas wszystkich”. Pozwy sądowe ( Skarga Udio ) szukaj odszkodowania do 150 000 $ za pracę.

suno i udio formalnie odpowiedzone w sierpniu 2024 r.). doktryna jako obrona. Udio wyraźnie argumentował swój system „słucha” muzyki podobnej do ludzkiego ucznia, ucząc się „muzycznych pomysłów” w celu tworzenia „nowych pomysłów muzycznych”, twierdząc, że „jest całkowicie niezainteresowany odtwarzaniem treści w naszym zestawie treningowym.”

The Riaa przeciwnie walczyło o to, że nazywa się przyjęciem przez firmy. Ten prawny dystans podkreśla złożony teren, przed którymi stoi Google. Firma podkreśla odpowiedzialne podejście, stwierdzając, że wyjścia Lyria 2 są oznaczone wodą przy użyciu technologii syntezowej.

Synthid, teraz rozszerzona poza dźwiękiem, osadza niezauważalny sygnał cyfrowy bezpośrednio w spektrogramie fali audio, zaprojektowane do przetrwania wspólnych modyfikacji, takich jak kompresja MP3, potencjalnie pomaga w śledzeniu pochodzenia generowanego audio. Jednak, podobnie jak wielu programistów AI, Google, Google nie szczegółowo opisał konkretnych zestawów danych wykorzystywanych do szkolenia Lyrii. 

Część szerszego push multimedia AI

Szersza dostępność piaskownicy muzycznej AI następuje po początkowym wyglądzie Lyrii na początku kwietnia 2025 r. Na platformie AI Vertex Vertex, która służy jako główna platforma zarządzana maszynami dla przedsiębiorstw. Zapewniając narzędzia takie jak piaskownicy dla poszczególnych twórców, być może kierowane przez platformy takie jak Google AI Studio . Lyria dołącza do innych modeli mediów generatywnych Google niedawno zaktualizowanych lub wprowadzonych, w tym generatora wideo Veo 2, modelu audio Chirp 3 (z funkcjami klonowania głosowego) i generator obrazu Imagen 3, wszystkie mające na celu wzmocnienie pakietu VIRTEX AI.

Ewoluujący krajobraz AI Audio

narzędzia Google wchodzące w przestrzeń konkurencyjną. Stabilność konkurentów AI wydało Stabilny Audio 2.0 w kwietniu 2024 r., Zapewniając bezpłatny dostęp do sieci do generowania utworów do trzech minut długości i umożliwienia użytkownikom przesyłania własnych próbek audio dla transformacji ai-funkcji pod względem koncepcji pudełka z piaskiem.

Stabilność AI nawiązała współpracę z Audible Magic do kontroli praw autorskich. Natomiast Nvidia ogłosiła swój model audio Fugatto w listopadzie 2024 r., Ale postanowił nie publicznie go zwolnić z powodu potencjalnych problemów niewłaściwego użycia. „Każda technologia generatywna zawsze zawiera pewne ryzyko, ponieważ ludzie mogą użyć tego do generowania rzeczy, które wolałyby,” powiedział wtedy Bryan Catanzaro z Nvidii.

Te postępy technologiczne nadal napędzają debatę na temat roli AI. Podczas gdy niektórzy twórcy postrzegają narzędzia, takie jak piaskownica AI jako powiększanie ludzkich zdolności, inni martwią się o przemieszczenie ludzkiej kreatywności, odzwierciedlając autora jojańskiego sendent-sentyment

Łatwość pokolenia rodzi również pytania o potencjalną dewaluację muzyki, przypominając prognozę Davida Bowiego, że muzyka może stać się jak „bieżąca wodę lub elektryczność”, zmieniająca się w kierunku unikalnych ludzkich elderów, jak pokazuje żywo. Postrzegana jakość i autentyczność muzyki AI w porównaniu z ludzkim tworzeniem pozostają punktami dyskusji w miarę postępu technologii.