Adobe gibt Video-Editoren neue Möglichkeiten, um im Premiere-Pro schneller und intelligenter zu arbeiten, und fügt Funktionen hinzu, die sich auf ihre Firefly-KI verlassen, um Filmmaterial zu füllen, relevante Aufnahmen zu identifizieren und automatische Übersetzungsunterschriften zu identifizieren. href=”https://blog.adobe.com/en/publish/2025/04/02/introducing-new-ai-bowered-features-workflow-nhancements-premiere-pro-1/after-effects”target=”_ blank”> Laut dem offiziellen Adobe-Ankündigungen . Obwohl dieses Rollout nicht das auffälligste Debüt in Adobe’s Expanding-Aufstellung generativer Funktionen ist, ist er für die Zeitlinien der Redakteure, die enge Produktionszeitpläne jonglieren. Sprachen.

generative Erweiterung unterstützt jetzt 4K-Auflösung und vertikale Formate, sodass Benutzer sowohl Video-als auch Audioclips verlängern können, indem sie einfach die Zeitleiste ziehen. Firefly-erzeugte Frames und Umgebungsgeräusche werden automatisch eingefügt, keine Neuaufnahmen erforderlich. Spoken-Wort und Musik sind aufgrund von Lizenzproblemen ausgeschlossen. Ein Schuss, der nur ein bisschen zu kurz ist. Das Firefly-Video-Modell von Adobe sagt voraus, wie die nächsten Frames aussehen sollen, und generieren Inhalte, die Lücken und Übereinstimmung mit dem umgebenden Filmmaterial ausfüllen. Es erzeugt auch Umgebungsklang, um den Visuals zu entsprechen, obwohl nicht der Dialog oder Musik. Die Veröffentlichung unterstützt nun 4K-Filmmaterial und vertikale Videoformate mit voller Auflösung-eine Verschiebung, die dem wachsenden Bedarf an sozialen Inhalten und Sendungsanlagen übereinstimmt. Adobe bestätigt, dass Benutzer Audio unabhängig von bis zu 10 Sekunden oder Video und Audio um zwei Sekunden lang erweitern können. Die Kosten variieren je nach Auflösung, Bildrate und Cliplänge. Redakteure können jetzt nach visuellen Elementen-wie”Nahaufnahme des Hundes”oder”Cityscape, Dämmerung”-suchen, ohne auf Dateinamen oder manuelles Tagging zu stützen. Das System analysiert Metadaten, Objekterkennung und Kameraattribute wie Angle oder Objektiv, um Clips in Stunden roher Filmmaterial zu lokalisieren. Adobe hat die KI so konzipiert, dass sie lokal ausgeführt wird, um sicherzustellen, dass er ohne Internetverbindung arbeitet und Audio oder Gesichter nicht indexiert oder analysiert. Media Intelligence unterstützt Suchvorgänge basierend auf”Objekt-, Ort-oder Kamera-Metadaten”, die einen schnellen Zugriff auf relevantes Material liefert. Es ist direkt in die Premiere-Pro-Timeline integriert und die zeitaufwändige Workflows senkt, die normalerweise an Lokalisierungsteams oder Drittanbieter-Software ausgelagert sind. Src=”Daten: Bild/SVG+XML; Nitro-Treppy-ID=Mtcymdoynzc=-1; Base64, Phn2ZyB2AWV3QM94psiwidagotyWidu0mcig d2lkdgg9ijk2mcigagvpz2h0psi1ndaiihhtbg5zpsjodhrwoi8vd3d3lnczlm9yzy8ymdawl3n2zyi+pc9zdmc+”> Quelle: Adobe

Adobe bearbeitet die Funktion, um sowohl die Zugänglichkeit als auch die globale Reichweite zu verbessern: Schöpfer können jetzt lokalisierte Versionen ihrer Arbeiten schnell machen und gleichzeitig die volle Kontrolle über Änderungen beibehalten. Der Umzug richtet sich an Adobe’s breiterer Fokus auf die Beschleunigung von Aufgaben, die zuvor externe Unterstützung benötigt haben. Im September 2024 kündigte Adobe seinen Plan an, generative Tools wie Generative Extend, Text-to-Video und Image-to-Video über die Firefly-Plattform an Premiere Pro zu bringen. Diese Funktionen haben kurz darauf private Beta eingegeben, wobei die anfänglichen Funktionen auf fünf Sekunden 720p-Clips im Web geleitet wurden. Dies geschieht, wenn die Prüfung der Branchen über Trainingsdaten und Modelltransparenz zunimmt. Adobe hat konsequent erklärt, dass Firefly in lizenzierten Inhalten geschult ist, einschließlich Adobe Stock, und keine Kundendaten verwendet. Der Illustrator gewann im Juli 2024 Text-zu-Muster-und generative Formfüllung, während Photoshop eine verbesserte Ablenkungsentfernung, eine verbesserte generative Füllung und HDR-Workflow-Updates erhielt. Diese Erweiterung war nicht ohne Reibung-Adobe war gezwungen, ihre Servicebedingungen nach dem Rückschlag in der Inhaltsnutzung für das Training zu aktualisieren. Diese Projekte deuten jedoch darauf hin, dass Adobe auf immer viel mehr einstimmigere Bearbeitungsumgebungen aufgebaut ist. OpenAIs Sora, die Gen-4 von Runway und die VEO 2 von Google sind weitere Tools für Videogeneration, die einen höheren Realismus und eine flexiblere Steuerung von promptbasiert versprechen. Der Schwerpunkt von Adobe auf die kommerzielle Sicherheit und Integration in weit verbreitete Plattformen bietet jedoch einen frühen Vorteil in den Unternehmenseinstellungen und in den Studio-Einstellungen. OpenAIs konkurrierende Tier bietet 50 Videos mit niedrigerer Auflösungen für 20 US-Dollar, wobei leistungsfähigere Optionen erheblich höher sind. Laut Adobe befindet sich 4K-Ausgabe in der Entwicklung.

Categories: IT Info