Adobe has expanded its Firefly generative AI platform with a new “Generate Sound Effects”tool, which entered beta on July 17. The feature, available in the Firefly web app, allows creators to produce custom audio from text prompts.
In該工具是一種將其與眾不同的獨特方法,它還使用戶可以記錄自己的聲音-聽起來像“ Whoosh”或“剪輯”,以指導AI以特定的時機和強度生成效果。此次發布是Adobe建立一個完整的,商業上安全的工具包的更廣泛策略的一部分。
“生成聲音效果”工具增加了競爭的競爭,以佔據AI音頻創建,使Adobe與Meta,Elevenlabs,Elevenlabs,穩定性AI和NVIDIA和NVIDIA和NVIDIA和NVIDIA。 src=“ https://winbuzzer.com/wp-content/uploads/2025/07/adobe-firefly-sound-effects.jpg”>
從’whoosh’到Soundscape:一種新的方式來生成音頻
7月17日, href=”https://blog.adobe.com/en/publish/2025/07/17/firefly-adds-new-video-capabilities-industry-leading-ai-models-generate-sound-effects-feature” target=”_blank”>new Generate Sound Effects tool represents a significant step forward in intuitive content creation.創作者現在可以提供人聲提示來塑造最終音頻輸出,而不是僅僅依靠文本。該音頻主導的提示首先在 adobe的項目超級sonic實驗。正是它們屬於視頻時間表的位置。 This innovative workflow aims to bridge the gap between a creator’s intent and the AI’s interpretation, a common friction point in generative tools.
[embedded content]
Beyond Sound: Firefly’s Expanded Video and Partner Toolkit
This audio generator is just one piece of a larger update to Firefly’s video capabilities. Adobe還引入了“構圖參考”,該功能允許用戶上傳參考視頻,以在新的AI生成的剪輯中反映其構圖。這為創建者提供了對射擊框架和一致性的更多控制。
更新還包括“樣式預設”,用於單擊粘土或動漫等視覺樣式,以及“鍵盤裁剪”以簡化工作流程。為了致敬對可擴展內容的需求不斷增長,Adobe還推出了“對Avatar(Beta)的文本”,該腳本將腳本變成由數字演示者領導的視頻。
進一步擴展了其生態系統,Adobe正在將諸如Runway,Google,Pika,Pika和Luma AI的合作夥伴集成了第三方AI。 Adobe的生成性AI鉛Alexandru Costin建議“將來可以與第三方AI模型一起使用類似的控制和預設”,這表明了未來,螢火蟲可以作為各種生成技術的中心樞紐。
逐步播放了
逐步播放了
逐步播放了
一個激烈的競爭領域。 Elevenlabs於2024年6月推出了自己的聲音效果工具,強調了其通過與Shutterstock的合作夥伴關係使用道德採購的數據。
與此同時,穩定性AI和手臂於2025年5月發布了開源的,啟用式模型,重點是免版稅音頻,以避免版權糾紛。 Meta在2023年推出了Audiocraft,這是一個生成的AI平台,允許用戶僅單擊幾下創建原始音樂和音頻內容。
該行業仍然謹慎。 Nvidia於2024年11月推出了其先進的Fugatto模型,但已撤銷其公眾發行的道德問題。 Bryan Catanzaro,Nvidia的副總裁,
通過在商業安全的數據集中構建其模型並將多個工具集成到單個平台中,Adobe將Firefly定位為可靠和全面的解決方案。