Adobe har utvidet sin Firefly Generative AI-plattform med et nytt”Generate Sound Effects”-verktøy, som kom inn i beta 17. juli. Funksjonen, tilgjengelig i firEfl nett-app spørsmål.

I en unik tilnærming som skiller det ut, lar verktøyet også brukere registrere sin egen stemme-noe som gjør lyder som”whoosh”eller”klippklem”-for å veilede AI i å generere effekter med spesifikk timing og intensitet. Denne lanseringen er en del av Adobes bredere strategi for å bygge et komplett, kommersielt trygt verktøysett.

“generere lydeffekter”-verktøyet øker konkurransen i løpet for å dominere AI-lydoppretting, pitting Adobe mot rivaler som Meta, Elevenlabs, Stability AI og Nvidia. src=”https://winbuzzer.com/wp-content/uploads/2025/07/adobe-firefly-sound-effects.jpg”>

fra ‘whoosh’ til lydbilde: en ny måte å generere lyd

kunngjort på July på 17. juli href=”https://blog.adobe.com/no/publish/2025/07/17/firefly-adds-new-video-capabilities-industry-lading-ai-Models-Generate-sound-Effects-Featur”Target=”_ blank”> new Generate Sound Effects Tool Represiters Represents Resepiters Represent=”_ blank”> new Generate Sound Effects Tool I stedet for å stole utelukkende på tekst, kan skaperne nå gi vokale signaler for å forme den endelige lydutgangen. Denne audiovedede spørsmål ble først drillet i adobe’s Project Super Sonic Experiment .

the System AnalyNes the Cades Super Sonic Experiment . Nettopp der de hører hjemme i en videodelinje. Denne innovative arbeidsflyten tar sikte på å bygge bro mellom en skaperens intensjon og AIs tolkning, et vanlig friksjonspunkt i generative verktøy.

[Embedded Content]

Beyond Sound: Firefly’s Expanded Video og Partner Toolkit

denne audio-generatoren er bare en LYSTE til en stor>

denne audio-generatoren. Adobe introduserte også”Composition Reference”, en funksjon som lar brukere laste opp en referansevideo for å speile sammensetningen i et nytt AI-generert klipp. Dette gir skaperne mer kontroll over rammen av skudd og konsistens.

Oppdateringen inkluderer også”stil forhåndsinnstillinger”for å bruke visuelle stiler som Claymation eller Anime med et enkelt klikk, og”Keyframe beskjærer”for å effektivisere redigering av arbeidsflyter. I et nikk til den økende etterspørselen etter skalerbart innhold, lanserte Adobe også “Text to Avatar (Beta)”, som gjør skript til videoer ledet av en digital programleder.

Videre utvider det økosystemet, integrerer Adobe tredjepart AI-modeller fra Partners som Runway, Google, Pika og Luma AI direkte til Firefl. Adobes generative AI-ledelse, Alexandru Costin, antydet at”lignende kontroller og forhåndsinnstillinger kan være tilgjengelige å bruke med tredjeparts AI-modeller i fremtiden”, og signaliserer en fremtid der Firefly fungerer som et sentralt knutepunkt for forskjellige generative teknologier. Navigating the Crowded og omstridt a audio. et voldsomt konkurransedyktig felt. Elevenlabs lanserte sitt eget verktøy for lydeffekter tilbake i juni 2024, og understreket bruken av etisk hentede data gjennom et partnerskap med Shutterstock. 

I mellomtiden frigjorde Stability AI og ARM en åpen kildekode, på enhetsmodell i mai 2025, med fokus på royaltyfri lyd for å unngå copyright-tvister. Meta i 2023 lanserte Audiocraft, en generativ AI-plattform som lar brukere lage original musikk og lydinnhold med bare noen få klikk.

Bransjen er imidlertid forsiktig. Nvidia avduket sin avanserte Fugatto-modell i november 2024, men har holdt tilbake sin offentlige løslatelse over etiske bekymringer. Bryan Catanzaro, en VP på NVIDIA,

Ved å bygge sine modeller på kommersielt trygge datasett og integrere flere verktøy i en enkelt plattform, posisjonerer Adobe Firefly som en pålitelig og omfattende løsning for kreative fagpersoner.