รันเวย์ได้เปิดตัวโมเดลการสร้างวิดีโอ Gen-4 AI โดยนำเสนอวิธีการที่มีจุดมุ่งหมายเพื่อลดค่าใช้จ่ายในการแก้ไขด้วยตนเองสำหรับผู้สร้างเนื้อหา CompanyClaims Gen-4 เป็นหนึ่งในเครื่องกำเนิดวิดีโอ AI ที่มีความเที่ยงตรงสูงสุดจนถึงปัจจุบัน
การเปิดตัวฉากที่ได้รับการปรับให้เหมาะสมที่สุดการควบคุมการควบคุมผู้ใช้ที่ตอบสนองได้ดีขึ้นและการตอบกลับแบบเรียลไทม์ ในขณะที่รายละเอียดในระดับนี้สามารถเพิ่มค่าการผลิตผู้เชี่ยวชาญบางคนแนะนำว่ามันอาจวางความต้องการที่หนักขึ้นในฮาร์ดแวร์
เบื้องหลัง: การสร้างภาพยนตร์เชิงลึก
รันเวย์ Gen-4 รวมถึงเครื่องมือที่มีประสบการณ์ในการใช้งานฟิล์มและวิดีโอ src=”https://winbuzzer.com/wp-content/uploads/2025/03/runway-gen-4.jpg”>
ตามบล็อกอย่างเป็นทางการของ บริษัท เตือนว่า GPU ระดับสูงอาจจำเป็นต้องจัดการเวลาการแสดงผลโดยเฉพาะอย่างยิ่งเมื่อสร้างลำดับที่ซับซ้อนหรือยาวนาน
[เนื้อหาที่ฝังตัว]
วิธีการที่ Gen-4 สามารถใช้ในการผลิตในชีวิตประจำวัน
ภาพเคลื่อนไหวใบหน้าหรือรายละเอียดพื้นหลัง
ในทางปฏิบัตินี่หมายถึงการเริ่มต้นด้วยตัวอย่างที่รวดเร็วและมีความละเอียดต่ำทำให้มั่นใจได้ว่าความยาวโฟกัสและโทนสีรู้สึกถูกต้องโดยไม่ต้องใช้เวลาในการเรนเดอร์ที่ยาวนาน ผู้ใช้ที่ต้องการรักษาบรรยากาศที่สอดคล้องกันในหลายคลิปมักใช้ประเภทเลนส์สม่ำเสมอมุมแสงหรือตัวกรองสี เมื่อภาพตัวอย่างตรงกับวิสัยทัศน์เชิงสร้างสรรค์การเปลี่ยนไปใช้ความละเอียดที่สูงขึ้นทำให้รูปลักษณ์สุดท้ายแข็งแกร่งขึ้น
สำหรับโครงการที่ซับซ้อนมากขึ้นบล็อกคำแนะนำข้อความแยกต่างหากสามารถจัดการเซ็กเมนต์ที่แตกต่างกันเช่นภาพกว้างพาโนรามาหรือภาพใกล้ชิดบนตัวละครกลาง ผู้สร้างอาจกำหนดการตั้งค่าช่วงบ่ายในการแจ้งเตือนการเปลี่ยนไปสู่สภาพแวดล้อมในร่มในครั้งต่อไปและเก็บการแสดงออกของตัวละครหรือการเปลี่ยนแสงในชุดเครื่องแบบโดยดำเนินการผ่านพารามิเตอร์บางอย่าง
[เนื้อหาที่ฝังตัว]
เนื่องจาก Gen-4 รองรับองค์ประกอบของฉากและการให้คะแนนสีภายในรุ่นเดียวกันบรรณาธิการสามารถรวมทุกอย่างตั้งแต่การทำแผนที่ใบหน้าไปจนถึงการเอียงกล้องโดยไม่พลิกระหว่างเครื่องมือหลายอย่าง วิธีการแบบบูรณาการนี้ช่วยให้ทีมปรับแต่งภาพของพวกเขาค่อยๆสร้างไปสู่เอาต์พุตที่สอดคล้องกันซึ่งสร้างความสมดุลให้กับศิลปะด้วยประสิทธิภาพทางเทคนิค
[เนื้อหาที่ฝังตัว]
Gen-4 สร้างขึ้นบนตัวเลือกการกระตุ้นเชิงลึกในแบบจำลองก่อนหน้านี้ ปรับช่วยผู้สร้างจากการคาดเดาระหว่างการแก้ไข ในขณะเดียวกันวิธีการแพร่กระจายที่ดีขึ้นจะช่วยลดการบิดเบือนในสภาพแวดล้อมที่ซับซ้อนซึ่งนำไปสู่การกำหนดกรอบที่สอดคล้องกันมากขึ้น-สินทรัพย์สำหรับผู้สร้างภาพยนตร์ที่มีจุดประสงค์เพื่อให้มองเห็นได้หลายภาพ การทำแผนที่ใบหน้าโดยละเอียดกับตัวละครในขณะที่ยังคงสำรวจการให้คะแนนสีขั้นสูงหรือลำดับหลายตัวของกล้องซึ่งทั้งหมดอยู่ในอินเทอร์เฟซเดียว อย่างไรก็ตามความสามารถที่เพิ่มขึ้นสามารถเรียกร้องทรัพยากรหน่วยความจำและ GPU มากขึ้น
โครงการขนาดใหญ่-โดยเฉพาะที่กำหนดเป้าหมาย 4K หรือเส้นทางกล้องที่ซับซ้อน-อาจเผชิญกับการเรนเดอร์นานขึ้นหากความสามารถในการใช้ฮาร์ดแวร์นั้นมี จำกัด
แต่ละฉากในภาพยนตร์ถูกสร้างขึ้นโดยการรวมภาพอ้างอิงที่แท้จริงของสัตว์เข้ากับภาพถ่ายจริงของนิวยอร์กโดยใช้ gen-4 … pic.twitter.com/nuqgvwhniz
HREF=”https://twitter.com/runwayml/status/19067189429381696999?ref_src=twsrc%5Etfw”เป้าหมายที่เพิ่มขึ้นสู่การใช้งานได้มากขึ้น แทนที่จะเล่นกลแอปพลิเคชั่นแบบสแตนด์อโลนหลายรายการอินเทอร์เฟซแบบรวมของ Gen-4 ช่วยให้ทีมภาพยนตร์และผู้สร้างอิสระสามารถรักษาโมเมนตัมได้โดยไม่ต้องเปลี่ยนซอฟต์แวร์
ความสามารถในการดูผลลัพธ์ทันที ภาพยนตร์การ์ตูนติดตามกลุ่มนักสำรวจเพื่อค้นหาดอกไม้ลึกลับ ทำทั้งหมดด้วย gen-4 ในเวลาน้อยกว่าหนึ่งสัปดาห์
6/8 pic.twitter.com/is8bqqkl6e href=”https://twitter.com/runwayml/status/1906718947195461886?ref_src=twsrc%5Etfw”เป้าหมายและการแข่งขันจากการแข่งขัน
รันเวย์ไม่ได้อยู่คนเดียวในการติดตามวิดีโอ AI ขั้นสูง เมื่อเดือนธันวาคมที่ผ่านมา OpenAI เปิดตัว SORA โดยเสนอเอาท์พุทข้อความถึง-วิดีโอและระบบตามเครดิตสำหรับผู้ใช้ ChatGPT Google ตอบกลับด้วย VEO 2 หลังจากนั้นไม่นานเพิ่มความละเอียด 4K และลายน้ำที่มองไม่เห็น
ในการเปลี่ยนแปลงที่แตกต่างกันอาลีบาบาของจีนเปิดเผย WAN 2.1 ในเดือนกุมภาพันธ์ปีนี้ซึ่งเป็นแพลตฟอร์มโอเพ่นซอร์สโดยไม่ต้องจ่ายเงิน ผู้เข้าร่วมแต่ละคนให้ความสำคัญกับลำดับความสำคัญเฉพาะ-บางคนเน้นการแก้ปัญหาคนอื่น ๆ มุ่งเน้นไปที่การเข้าถึงหรือในกรณีของ Gen-4 การจัดการฉากที่ลึกกว่า ผู้เฝ้าดูอุตสาหกรรมคาดการณ์ว่าในที่สุดเกณฑ์มาตรฐานจะยืนยันในที่สุดว่าผลลัพธ์ของ Gen-4 ยังคงความมั่นคงในระดับความเที่ยงตรงสูง
มองย้อนกลับไปที่ Gen-3 และ Act-One
เส้นทางของ บริษัท เน้นหลายขั้นตอนที่นำไปสู่ Gen-4 ในเดือนกันยายน 2567 รันเวย์ได้เปิดตัว Gen-3 Alpha Turbo API ซึ่งเสนอการอัพเกรดความเร็วสำหรับองค์กรที่รวมวิดีโอ AI เข้ากับท่อผลิต
เดือนต่อมา การพัฒนาเหล่านั้นเป็นพื้นฐานของ Gen-4 ซึ่งมีคำแนะนำในขณะนี้ขยายเกินกว่าการทำแผนที่ใบหน้าเพื่อรวมฉากทั้งหมดการให้คะแนนสีและเส้นทางกล้องหลายเส้นทาง
ในทางปฏิบัติการรวมฟังก์ชั่นเหล่านี้อาจลดต้นทุนการผลิตระยะยาว ถึงกระนั้นผลกระทบที่แท้จริงยังคงได้รับการทดสอบในการตั้งค่าฮาร์ดแวร์ที่หลากหลายซึ่งการใช้หน่วยความจำและความเร็วในการแสดงผลสามารถเป็นหัวใจสำคัญสำหรับโครงการขนาดใหญ่