Runway telah memperkenalkan model penjanaan video Gen-4 AI, menyampaikan pendekatan yang bertujuan untuk mengurangkan overhead pengeditan manual untuk pencipta kandungan. The Companyclaims Gen-4 adalah salah satu daripada penjana video berkuasa AI yang paling tinggi sehingga kini. Walaupun tahap terperinci ini dapat meningkatkan nilai pengeluaran, sesetengah pakar mencadangkan ia juga boleh meletakkan tuntutan yang lebih berat pada perkakasan. src=”https://winbuzzer.com/wp-content/uploads/2025/03/runway-gen-4.jpg”>
juga memberi amaran bahawa GPU mewah mungkin perlu untuk memastikan masa yang dapat dikendalikan, terutamanya apabila menghasilkan urutan yang kompleks atau panjang.
[Kandungan tertanam]
Arahan seperti animasi muka atau butiran latar belakang.
Dalam amalan, ini bermakna bermula dengan pratonton cepat, rendah-resolusi, memastikan bahawa panjang fokus dan skema warna merasa betul tanpa melakukan masa yang lama. Pengguna yang ingin mengekalkan suasana yang konsisten merentasi pelbagai klip sering menggunakan jenis kanta seragam, sudut pencahayaan, atau penapis warna. Sebaik sahaja pratonton sepadan dengan visi kreatif, beralih kepada resolusi yang lebih tinggi menyebabkan mengukuhkan pandangan akhir.
Untuk projek yang lebih kompleks, blok berasingan arahan teks boleh menguruskan segmen yang berbeza, seperti tembakan lebar panoramik atau penutupan pada watak utama. Pencipta mungkin mentakrifkan suasana lewat petang dalam satu proses yang cepat, peralihan ke persekitaran dalaman di seterusnya, dan menyimpan ungkapan watak atau peralihan pencahayaan seragam dengan membawa parameter tertentu.
[Kandungan Terbenam]
Kerana Gen-4 menyokong komposisi adegan dan penggredan warna di dalam model yang sama, editor boleh menyatukan segala-galanya dari pemetaan muka ke kecondongan kamera tanpa membalikkan antara pelbagai alat. Pendekatan bersepadu ini membolehkan pasukan memperbaiki visual mereka secara beransur-ansur, membina ke arah output yang kohesif yang mengimbangi kesenian dengan kecekapan teknikal. Laluan diselaraskan, menjimatkan pencipta dari meneka semasa sesi penyuntingan. Pada masa yang sama, kaedah penyebaran yang lebih baik mengurangkan penyelewengan dalam persekitaran yang rumit, yang membawa kepada pembingkaian yang lebih konsisten-aset untuk pembuat filem yang bertujuan untuk mengekalkan pandangan yang kohesif merentasi pelbagai tembakan.
Ini bermakna pengguna boleh menetapkan pemetaan muka terperinci kepada watak-watak semasa masih meneroka penggredan warna canggih atau urutan multi-camera, semuanya dalam satu antara muka. Walau bagaimanapun, keupayaan yang meningkat boleh menuntut lebih banyak ingatan dan sumber GPU.
Projek-projek berskala besar-terutamanya yang mensasarkan laluan kamera 4K atau kompleks-mungkin menghadapi masa yang lebih lama jika kapasiti perkakasan adalah terhad. Setiap adegan dalam filem itu dicipta dengan mula-mula menggabungkan imej rujukan sebenar haiwan dengan gambar sebenar New York menggunakan Gen-4… pic.twitter.com/nuqgvWhniz href=”https://twitter.com/runwayml/status/1906718942938169699? Daripada menyesuaikan pelbagai aplikasi mandiri, antara muka yang disatukan oleh Gen-4 membolehkan pasukan filem dan pencipta bebas sama untuk mengekalkan momentum tanpa menukar perisian.
Filem animasi pendek berikutan sekumpulan penjelajah untuk mencari bunga misteri. Dibuat sepenuhnya dengan gen-4 dalam masa kurang dari seminggu.
6/8 pic.twitter.com/is8bqqkl6e href=”https://twitter.com/runwayml/status/1906718947195461886?ref_src=twsrc%5etfw”sasaran=”_ blank”Alibaba
landasan tidak bersendirian dalam mengejar video AI lanjutan. Disember lalu, Openai melancarkan SORA, menawarkan output teks-ke-video dan sistem berasaskan kredit untuk pengguna ChATGPT. Google membalas dengan VEO 2 sejurus selepas itu, menambah resolusi 4K dan watermarking yang tidak kelihatan.
Dalam sentuhan yang berbeza, Alibaba China mendedahkan WAN 2.1 Februari ini, menyediakan platform sumber terbuka tanpa paywalls. Setiap peserta memenuhi keutamaan tertentu-sesetengah menekankan resolusi, yang lain memberi tumpuan kepada aksesibiliti, atau dalam kes Gen-4, manipulasi adegan yang lebih mendalam. Pengamat industri menjangkakan bahawa penanda aras bebas akhirnya akan mengesahkan sama ada keputusan Gen-4 mengekalkan kestabilan pada tahap kesetiaan yang tinggi.
Melihat kembali pada Gen-3 dan ACT-One Pada bulan September 2024, Runway melancarkan API Gen-3 Alpha Turbo, yang menawarkan peningkatan kelajuan untuk perusahaan yang mengintegrasikan video AI ke dalam saluran pengeluaran. Perkembangan tersebut membentuk asas Gen-4, yang panduan yang mendorongnya kini melampaui pemetaan muka untuk merangkumi keseluruhan adegan, penggredan warna, dan pelbagai laluan kamera.
Di sisi praktikal, menyatukan fungsi-fungsi ini dapat mengurangkan kos pengeluaran jangka panjang. Namun, kesan sebenar masih diuji di pelbagai persediaan perkakasan, di mana penggunaan memori dan kelajuan rendering boleh menjadi penting untuk projek-projek berskala besar.