登入

Viggle AI: 如何產生人物動作可控的視頻

作者:neo yang 時間:2024/05/13 讀: 7889
影片生成模型如Sora和Stable Video Dissfusion常面臨無法精準控制輸出影片的問題,尤其是在人物動作上。可控視訊模型能透過提示詞精確控制影片中的人物動作。 Viggle AI,作為首個具備實際物理理解能力的影片-3D模型,能自由控制角色動作,並植入於Discord平台。這種可控視訊技術將顯著降低數位人產品成本,並實現多樣化的數位人視訊創作。

概述

Sora、Stable Video Dissfusion等影片生成模型都存在一個問題,那就是產生的影片是無法精準控制的。這在人物的動作方面尤其明顯。

可控視訊模型是什麼?

透過提示詞精準控制人物動作等行為的影片生成模型就是可控的影片生成模型。

Viggle AI是什麼?

Viggle AI 號稱第一個具有實際物理理解的影片-3D基礎模型。它可以隨心所欲地控制任何人物角色的動作。

Viggle AI 的官網:https://www.viggle.ai/

如何使用Viggle AI?

Viggle AI 目前寄生在discord中。

你可以加入:https://discord.com/channels/1181076253172842537/@home

Viggle AI生成的影片範例

總結

可控視訊會讓現在的數位人實現技術產生很大的變化,大大降低一個數位人產品的成本。也會產生很多以前很難做到的數位人影片。

標籤:


copyright © www.lyustu.com all rights reserve.
Theme: TheMoon V3.0. Author:neo yang