调研日期:2026年3月30日
覆盖范围:Runway Workflows、Gen-4.5、NVIDIA GTC实时生成、E轮融资战略
一、核心产品:Runway Workflows —— 提示词到成片的AI自动化流水线
Runway Workflows 是Runway推出的流程化视频生成核心平台,其本质是一个可视化节点编辑器,允许用户将多个生成模型、任务和模态连接起来,构建从提示词到分镜到成片的完整自动化创意流水线,无需编写任何代码。
1.1 核心架构:三种节点类型
| 节点类型 | 功能 | 输入 | 输出 |
|---|---|---|---|
| 输入节点 | 工作流起点,导入媒体或文本 | 用户上传图像/视频,或输入提示词 | 图像、视频、文本 |
| 媒体模型节点 | 使用Runway生成式模型转换内容 | 图像、视频、文本提示词 | 新的图像、视频 |
| LLM节点 | 自动分析、增强和优化提示词 | 文本提示词、图像描述 | 优化后的文本 |
1.2 节点连接与自动化
用户通过拖拽节点、连接输入输出的方式构建流水线。一个节点的输出可以直接作为下一个节点的输入,实现端到端自动化运行。整个流程可一键执行,也可保存为可复用模板供团队共享。
1.3 支持的生成模型
工作流中可调用的媒体模型包括:
- Gen-4 / Gen-4 Turbo(Runway最新主力模型)
- Flash 2.5(快速生成模型)
- Google Veo 3.1(第三方模型集成)
1.4 预构建工作流模板(9个)
Runway官方提供了即开即用的模板:
| 工作流名称 | 功能描述 |
|---|---|
| 故事板创建器(Storyboard Creator) | 从文本描述自动生成故事板分镜 |
| 动态脚本生成器 | AI自动生成视频脚本 |
| 图像风格生成器 | 批量为图像应用统一视觉风格 |
| 图像变体生成 | 基于参考图生成多版本变体 |
| 虚拟试穿 | 服装/产品在模型上的虚拟试穿 |
| 自定义指令工作坊 | 自动优化提示词质量 |
| 图像转文本 | AI自动分析图像生成描述 |
| 发廊 | 虚拟发型预览 |
| 风格混合 | 混合多种视觉风格生成新图像 |
1.5 典型工作流:从提示词到分镜到成片
以故事板创建器为例,一个完整的AI视频制作流水线可以是:
“ [文本输入:故事大纲] → [LLM节点:自动拆分场景、生成每幕描述] → [LLM节点:为每个场景生成详细提示词] → [Gen-4 Turbo节点:逐场景生成视频片段] → [批量输出:完整分镜序列] “
二、Gen-4.5 —— 当前最强文本转视频模型(2025年12月发布)
Gen-4.5在Artificial Analysis排行榜上以1247 Elo评分位列第一,是Runway的核心生成引擎。
2.1 关键流程化能力
原生音频生成:Gen-4.5随视频同步生成音频(对话、环境音效、配乐),消除了后期单独配音步骤。
多镜头序列生成:可一次性生成一系列相互关联的镜头,保持角色、环境和视觉风格的跨镜头一致性。用户无需手动拼接独立片段,直接输出连贯叙事序列。
角色一致性(Character Lock):在Gen-4基础上进一步优化,模型能精确保持发型、面部特征、服装纹理等细节,跨镜头不”变脸”。
高级摄像机控制:通过文本提示词控制复杂镜头运动,包括跟踪镜头、推拉镜头、升降镜头、手持效果、移焦、固定广角等。
物理精度:物体具有真实重量感和动量(头发飘落、水流动等),解决了早期AI视频”漂浮”问题。
长视频支持:最长支持60秒连续视频,全程保持角色一致性和复杂多角度镜头。
口型同步:配合原生音频生成,基本实现对话口型同步。
2.2 定价(基于积分)
| 计划 | 月费 | 月积分 | Gen-4.5生成量 |
|---|---|---|---|
| 免费 | $0 | 125 | 约5秒 |
| 标准 | $12 | 625 | 约25秒 |
| 专业 | $28 | 2250 | 约90秒 |
| 无限 | $76 | 2250+探索模式 | 90秒(全质量)+ 无限(探索模式) |
Gen-4.5消耗25积分/秒(Gen-4 Turbo仅5积分/秒)。
三、NVIDIA GTC 2026:实时视频生成突破
2026年3月18-23日,Runway与NVIDIA在GTC大会上联合展示了下一代实时视频生成技术。
3.1 技术规格
- 硬件平台:NVIDIA下一代Vera Rubin架构
- 首帧延迟:低于100毫秒
- 分辨率:高清(HD)
- 工作方式:类似游戏引擎的连续流式帧传输,而非传统批处理生成
3.2 工作流革命意义
传统AI视频生成是”输入提示词→等待渲染→输出完整视频”的批处理模式。实时生成技术将其转变为”输入提示词→毫秒级响应→持续交互生成”的流式模式,类似在游戏中实时渲染场景。
3.3 应用前景
- 实时AI角色直播与互动媒体
- 游戏中的动态环境实时生成
- 交互式虚拟体验
- 实时预览与快速原型迭代
3.4 当前局限
- 角色一致性仍有挑战(连续迭代中角色特征容易偏移)
- 仍为研究预览版,非商业产品
- 伦理风险(实时deepfake、实时诈骗)
四、API与自动化能力
4.1 Runway官方API
- 提供完整的RESTful API,支持开发者将AI视频生成集成到自有应用中
- 支持文本转视频、图像转视频、视频编辑等多种生成任务
- API积分与Web应用积分分开计费,最低购买$10/1000积分
4.2 第三方自动化工具
Runway Automation(runwayautomation.com):
- 免费Web应用,集成Runway API
- 一次性批量生成最多20个视频
- 支持Gen-4 Turbo和Gen-3 Alpha Turbo模型
- 支持6种宽高比(16:9、9:16、1:1、4:3、3:4、21:9)
- 支持5秒/10秒视频时长
- 支持4K升级(2积分/秒)
- 内置视频库管理
GitHub开源工具(runway-automation by igolaizola):
- Apify平台上的开源自动化Actor
- 支持批量提示词处理
- 自动化视频生成与下载
五、E轮融资与战略方向
5.1 融资详情(2026年2月10日)
| 项目 | 详情 |
|---|---|
| 融资轮次 | Series E |
| 金额 | 3.15亿美元 |
| 估值 | 53亿美元(较上一轮3亿美元近乎翻倍) |
| 领投 | General Atlantic |
| 跟投 | NVIDIA, Adobe Ventures, AMD Ventures, AllianceBernstein, Fidelity, Mirae Asset, Felicis, Premji Invest |
5.2 战略方向:从视频生成到世界模型
Runway CEO Cristóbal Valenzuela明确表示:”世界模型是我们这个时代最具变革性的技术。” 融资将主要用于:
- 预训练下一代世界模型(GWM-1)
- 将世界模型应用于新产品和新行业
- 开发Robotics SDK,拓展机器人仿真应用
世界模型意味着AI不再只是生成连续图像帧,而是能理解和模拟真实世界的物理规律、因果关系和动态变化,从根本上提升生成内容的真实感和可控性。
六、完整工作流总结:从提示词到成片的AI视频制作管线
基于以上信息,Runway当前提供的端到端AI视频制作工作流可以概括为:
阶段一:前期制作(Pre-Production)
- 脚本生成:使用LLM节点或动态脚本生成器工作流,从故事概念自动生成结构化脚本
- 分镜创作:使用故事板创建器工作流,将脚本拆分为具体场景,自动生成分镜画面
- 角色设定:通过角色一致性功能锁定角色外观(发型、服装、面部特征)
- 风格定义:使用图像风格生成器确保全片视觉风格统一
阶段二:制作(Production)
- 逐场景生成:使用Gen-4 Turbo快速迭代(5积分/秒),或Gen-4.5高品质输出(25积分/秒)
- 摄像机控制:通过文本提示词控制镜头运动(推拉摇移、跟拍、升降等)
- 多镜头序列:Gen-4.5可一次性生成连贯的多镜头叙事
- 批量自动化:通过API或Runway Automation工具批量生成多个场景
阶段三:后期制作(Post-Production)
- 原生音频:Gen-4.5同步生成对话、音效和配乐
- 口型同步:自动唇形匹配
- 4K升级:通过API进行4K分辨率提升
- 多格式导出:支持MP4、JSON等多种格式输出
阶段四:企业级扩展
- 可复用模板:将工作流保存为团队模板
- API集成:将整个流程嵌入企业生产管线
- 世界模型:未来通过GWM-1实现物理级真实感生成






