Viggle AI: 如何生成人物动作可控的视频
视频生成模型如Sora和Stable Video Dissfusion常面临无法精准控制输出视频的问题,尤其是在人物动作上。可控视频模型能通过提示词精确控制视频中的人物动作。Viggle AI,作为首个具备实际物理理解能力的视频-3D模型,能自由控制角色动作,并植入于Discord平台。这种可控视频技术将显著降低数字人产品成本,并实现多样化的数字人视频创作。
概述
Sora、Stable Video Dissfusion等视频生成模型都存在一个问题,那就是生成的视频是无法精准控制的。这在人物的动作方面尤其明显。
可控视频模型是什么?
通过提示词精准控制人物动作等行为的视频生成模型就是可控的视频生成模型。
Viggle AI是什么?
Viggle AI 号称第一个具有实际物理理解的视频-3D基础模型。它可以随心所欲地控制任何人物角色的动作。
Viggle AI 的官网:https://www.viggle.ai/
如何使用Viggle AI?
Viggle AI 目前寄生在discord中。
你可以加入:https://discord.com/channels/1181076253172842537/@home
Viggle AI生成的视频示例
总结
可控视频会让现在的数字人实现技术产生很大的变化,大大降低一个数字人产品的成本。也会产生很多以前很难做到的数字人视频。