AI Research Firm Runway har lansert Aleph, en ny video-til-video-modell som lar skaperne redigere eksisterende opptak ved å bruke enkle tekstpromper. Target=”_ Blank”> Utgivelse posisjonerer det New York-baserte selskapet som en direkte konkurrent til AI-videoverktøy fra Adobe, Google og Meta. Lanseringen kommer som rullebanespartnere med IMAX for å screene AI-genererte filmer og følger rapporter om et avvist overtakelsesbud fra Meta, og sementerer dens økende innflytelse.
hva Aleph bringer til den redigeringsmulti-t-t-t-the-tasken for å”se på”. Utfør et bredt spekter av videomanipulasjoner i kontekst. I motsetning til tekst-til-video-modeller som lager innhold fra bunnen av, forvandler Aleph eksisterende opptak, og gir filmskapere granulær kontroll over skuddene sine. This approach allows creators to work with what they have already filmed, augmenting it with AI rather than replacing it entirely.
The model offers powerful environmental controls, allowing users to change the Hele stemningen i en scene med enkle spørsmål. I følge Runways kunngjøring kan skaperne forvandle belysningen fra hard Noon til Golden Hour, gjøre en solskinnsdag til en snødekt eller konvertere et skudd på dagtid til en nattscene. AI justerer naturlig skygger, refleksjoner og fargetemperatur for å opprettholde realisme over hele rammen.
Objektmanipulering er en annen kjernefunksjon. Brukere kan sømløst legge til nye elementer, for eksempel å plassere produkter på et bord eller sette inn folkemengder i en tom gate, ved å bruke enten tekstbeskrivelser eller referansebilder. Verktøyet er like flink til å fjerne uønskede gjenstander eller refleksjoner fra en scene. Videre kan ALEPH ta nytt ut eller erstatte eksisterende objekter fullstendig, og tilbyr et nytt nivå av fleksibilitet etter produksjonen.
[innebygd innhold]
For fortellende og filmatiske formål gir Aleph verktøy for å generere uendelig dekning fra et enkelt skudd. Filmskapere kan be om nye kameravinkler som brede skudd, nærbilder eller omvendte skudd, og til og med be modellen generere det neste logiske skuddet i en sekvens. Den kan også bruke bevegelsen fra en video på et statisk bilde, noe som muliggjør finkornet kontroll over kamerabevegelse.
Utover objekter og kameraer kan modellen endre karakterens utseende, for eksempel deres alder, uten å kreve kompleks sminke eller kostbare visuelle effekter. Den støtter også stiloverføringer, slik at estetikk-fra anime til akvarell-skal brukes på en video. For arbeidsflyter etter produksjon inkluderer ALEPH et sofistikert verktøy for grønt skjerm som kan isolere ethvert emne med presis kantdeteksjon, og bevare fine detaljer som hårstreng for sømløs kompositering.
runways stigende profil i AI Arms
RUNWAY-bransjene i AI-armene. Selskapet kunngjorde nylig et landemerke-partnerskap med IMAX til Bring ai-generert film til en kommersiell publikum Filmer fra Runways AI Film Festival blir vist i 10 store amerikanske byer fra 17. til 20. august. I en uttalelse forklarte IMAX Chief Content Officer Jonathan Fischer selskapets perspektiv:”Hvordan disse verktøyene vil forme filmskaping er et område for oss å fortsette å utforske mens vi hedrer intensjonen til våre kreative partnere.”
denne rullebanen som vil ha en ceo Cristóbal Valenzuela la til,”Kvaliteten, variasjonen og historien til denne filmen om denne filmen om denne filmen til en programmed. Filmgjengere over hele Amerika, med høyest mulig kvalitet.”Flyttingen tar AI-filmskaping fra nisje online samfunn til de største tilgjengelige skjermene.
Denne økende innflytelsen forklarer sannsynligvis hvorfor Meta angivelig forsøkte å skaffe seg oppstarten i et bud som til slutt ble avvist. Runways beslutning om å forbli uavhengige understreker sin tillit til sin teknologi og dens sentrale rolle i fremtiden for kreative verktøy.
Et overfylt felt: Hvordan Aleph stabler seg mot konkurransen
Aleph går inn i et heftig konkurransedyktig marked for AI-videoverktøy. Big Tech har investert mye på dette rommet, med hver spiller som hugger ut en annen nisje. Adobe har fokusert på å integrere sin”kommersielt trygge”Firefly AI direkte i Premiere Pro, en strategi designet for å appellere til bedrifter som er på vakt mot copyright-tvister.
I mellomtiden har modeller som Openais Sora og Googles Veo 2 satt en høy bar for tekst-til-video-realisme, Creating Whole Scenes from Promercs. Runways fokus på å redigere eksisterende opptak med Aleph tilbyr en annen, mer praktisk arbeidsflyt for filmskapere som ønsker å øke, ikke bare generere, innholdet.
Netflix har nylig gjort overskrifter ved å bruke generativ AI for en VFX-sekvens i serien The EternAut. Med-CEO Ted Sarandos innrammet det som et verktøy for kreativ aktivering, og sa at det var”en utrolig mulighet til å hjelpe skapere med å lage filmer og serier bedre, ikke bare billigere.”Han hevdet at”at VFX-sekvensen ble fullført 10 ganger raskere enn den kunne vært fullført med tradisjonelle VFX-verktøy og arbeidsflyter,”en beregning som fremhever effektivitetsstudioene jager.
Dette presset for AI-drevet innholdsoppretting er ikke uten kontrovers. Bransjen kjemper med betydelige juridiske og etiske spørsmål, spesielt rundt copyright. Disneys generaladvokat, Horacio Gutierrez, kommenterte nylig et søksmål mot Midjourney, og sa:”Piratkopiering er piratkopiering. Og det at det gjøres av et AI-selskap gjør det ikke mindre krenkende.”
Debatten gir potensialet for kreativ innovasjon mot frykt for jobbforskyvning og intellektuell egenskap. Mens noen, som filmskaper Darren Aronofsky, tror at”nå er øyeblikket å utforske disse nye verktøyene og forme dem for fremtiden for historiefortelling,”forblir mange kreative fagforeninger på vakt. Runway’s Aleph, som bygger på forgjengeren Gen-4, står nå i sentrum av dette utviklende landskapet.
