Adobe hat seine Firefly Generative AI-Plattform mit einem neuen Tool „generieren Soundeffekte“ erweitert, das am 17. Juli Beta eingegeben hat. Eingabeaufforderungen.

In einem einzigartigen Ansatz, der es auseinander setzt, können Benutzer auch ihre eigene Stimme aufzeichnen-klingt wie”whoosh”oder”clip clop”-, um die KI zu leiten, um Effekte mit spezifischem Timing und Intensität zu generieren. Dieser Start ist Teil der breiteren Strategie von Adobe, um ein komplettes, kommerziell sicheres Toolkit zu erstellen. src=”https://winbuzer.com/wp-content/uploads/2025/07/adobe-firefly-sound-effects.jpg”href=”https://blog.adobe.com/en/publish/2025/07/17/firefly-adds-new-video-capabilities-industry-Leading-ai-models-generat-sound-effekte-feature-feature-tat”_ Blanko-Blanko-Blanko-Bloße. Anstatt sich ausschließlich auf Text zu verlassen, können die Ersteller nun Stimmhinweise bereitstellen, um die endgültige Audioausgabe zu formen. Diese Audio-geführte Aufforderung wurde zum ersten Mal in Adobe Project Super Sonic Experiment . Genau dort, wo sie zu einer Videozeitleiste gehören. Dieser innovative Workflow zielt darauf ab, die Lücke zwischen der Absicht eines Schöpfers und der Interpretation der KI zu schließen, ein häufiger Reibungspunkt in generativen Tools. Adobe führte außerdem „Kompositionsreferenz“ ein, eine Funktion, mit der Benutzer ein Referenzvideo hochladen können, um seine Komposition in einem neuen AI-generierten Clip widerzuspiegeln. Dies gibt den Erstellern mehr Kontrolle über Shot-Framing und Konsistenz. In einer Anspielung auf die wachsende Nachfrage nach skalierbaren Inhalten startete Adobe auch”Text to Avatar (Beta)”, der Skripte in Videos verwandelt, die von einem digitalen Moderator geleitet werden. Adobe’s generatives KI-Vorsprung, Alexandru Costin, schlug vor, dass „ähnliche Kontrollen und Voreinstellungen in Zukunft mit AI-Modellen von Drittanbietern zur Verfügung stehen, bei der Firefly als zentrale Hub für verschiedene generative Technologien in einem adobe und umstrittenen. ein heftiges Wettbewerbsfeld. ElfLabs hat im Juni 2024 ein eigenes Sound-Effekt-Tool gestartet, wobei die Verwendung ethisch bezogener Daten durch eine Partnerschaft mit Shutterstock betonte. 

In der Zwischenzeit veröffentlichten Stability AI und ARM im Mai 2025 ein Open-Source-Modell für das Gerät, das sich auf lizenzfreie Audio konzentriert, um Urheberrechtsstreitigkeiten zu vermeiden. Meta im Jahr 2023 hat Audiocraft gestartet, eine generative KI-Plattform, mit der Benutzer ursprüngliche Musik-und Audio-Inhalte mit nur wenigen Klicks erstellen können.

Die Branche bleibt jedoch vorsichtig. Nvidia stellte sein fortgeschrittenes Fugatto-Modell im November 2024 vor, hat jedoch seine öffentliche Befreiung wegen ethischer Bedenken zurückgehalten. Bryan Catanzaro, ein VP bei Nvidia,