Adobe rozszerzył swoją platformę AI generatywną Firefly o nowe narzędzie „Generuj efekty dźwiękowe”, które wprowadziło beta 17 lipca. Funkcja, dostępna w

W unikalnym podejściu, które go wyróżnia, narzędzie pozwala użytkownikom nagrywać własny głos-tworzenie brzmi jak „Whoosh” lub „Clip-clop”-aby poprowadzić sztuczną inteligencję w generowaniu efektów z określonym czasem i intensywnością. Ta premiera jest częścią szerszej strategii Adobe polegającej na budowie kompletnego, bezpiecznego narzędzi komercyjnego.

Narzędzie „Generowanie efektów dźwiękowych” zwiększa konkurencję w wyścigu, aby zdominować tworzenie audio AI, stawiając adobe przeciwko rywalom, takich jak meta, jedeczyźnie, stabilność AI i Nvidia.

od „Whoosh” do Soundscape: Nowy sposób na wygenerowanie audio

ogłoszone w lipcu 17, 2025, The

ogłoszony w lipcu 17, 2025, The Project Super Sonic Experiment Adobe .

analizy systemu i RHYTHM Użytkownika do Project Project Super Sonic Effecting. Dokładnie tam, gdzie należą one na harmonogramie wideo. Ten innowacyjny przepływ pracy ma na celu wypełnienie luki między intencją twórcy a interpretacją sztucznej inteligencji, wspólny punkt tarcia w narzędziach generatywnych.

[Osadzona treść]

Beyond Sound: Firefly rozszerzone filmy wideo i Partner Toolkit

To tylko jeden kawałek większej aktualizacji do Fireefly. Adobe wprowadził również „Composition Reference”, funkcję, która pozwala użytkownikom przesłać wideo referencyjne, aby odzwierciedlić jego kompozycję w nowym klipie generowanym przez AI. Daje to twórcom większą kontrolę nad ramami i konsekwencją strzałów.

Aktualizacja obejmuje również „ustawienia wstępne stylowe” do stosowania stylów wizualnych, takich jak Claymation lub Anime za pomocą jednego kliknięcia, oraz „Przycinanie klawiszy” w celu usprawnienia przepływów pracy edycji. W ukłonu wobec rosnącego zapotrzebowania na skalowalne treści Adobe uruchomiło również „tekst do awataru (beta)”, który zamienia skrypty w filmy prowadzone przez cyfrowego prezentera.

Dalej rozszerzając swój ekosystem. Generatywny kierownik AI Adobe, Alexandru Costin, zasugerował, że „podobne kontrole i ustawienia wstępne mogą być dostępne do użycia z modelami AI innej firmy w przyszłości”, sygnalizując przyszłość, w której Firefly działa jako centralne centrum dla różnych technologii generatywnych.

Nawigacie na zatłoczonym i spójnym rynku audio ai ai ai ai ai ai zaciekli konkurencyjna dziedzina. Elevenlabs uruchomiło własne narzędzie efektów dźwiękowych w czerwcu 2024 r., Podkreślając wykorzystanie danych pozyskiwanych etycznych poprzez partnerstwo z Shutterstock. 

Tymczasem stabilność sztucznej inteligencji i Arm wydały w maju 2025 r. Model open source, na urządzeniu, koncentrując się na dźwięku bezlejeznym, aby uniknąć sporów dotyczących praw autorskich. Meta w 2023 r. Uruchomiła Audiocraft, generatywną platformę AI, która pozwala użytkownikom tworzyć oryginalną zawartość muzyki i audio za pomocą zaledwie kilku kliknięć.

Branża pozostaje ostrożna. Nvidia zaprezentowała swój zaawansowany model Fugatto w listopadzie 2024 r., Ale wstrzymała swoje publiczne uwolnienie się nad obawami etycznymi. Bryan Catanzaro, wiceprezes w Nvidia,

poprzez budowanie swoich modeli na bezpiecznych zestawach danych i integrując wiele narzędzi z jedną platformą, Adobe pozycjonuje Firefly jako niezawodne i kompleksowe rozwiązanie dla kreatywnych profesjonalistów.

.