首頁 > AI資訊 > 最新資訊 > 給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

新火種    2024-09-12

讓AI視頻中任意主體保持一致!就在剛剛,人人都可輕松做到了。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

而且只需一張圖片,就能實現。

——上面的每一個馬斯克視頻,都來自同一張照片。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

想玩的話,只需要用上清華系AI視頻玩家生數科技旗下Vidu的最新功能,主體參照(Subject Consistency)。

該功能能夠實現對任意主體的一致性生成,讓視頻生成更加穩定,也更加可控。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

“現在生成AI視頻內容,想要做到‘言出法隨’其實還很難,不確定性讓視頻內容對運鏡、光效等的精細控制還是得不斷抽卡。”生數科技CEO唐家渝表示,“角色一致性只能讓人臉保持一致,而主體參照讓主體整體造型都能保持一致,給了更大的創作空間。”

這是繼今年7月,生數Vidu面向全球用戶上線文生視頻與圖生視頻能力(單視頻最長生成8s)后的再次更新。

這次功能上新依然非常友好:

面向用戶免費開放,注冊即可體驗。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放僅需一張圖片實現主體可控

先來看看Vidu是怎么定義這個新功能的。

劃重點:任意主體。

也就是說,無論是人還是動物,無論是真人還是動漫形象or虛構主體,無論是家具還是商品,都能通過這個功能在視頻生成中實現一致性和可控性。

目前,所有的視頻大模型中,僅有Vidu率先支持這種玩法。

不必光說不練,我們來看看真實效果。

人物主體

首先來看看以人物為主體。

上傳一張87版《紅樓夢》林妹妹的定妝照:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

以畫面中林妹妹為主體,利用主體參照功能,生成兩條視頻。

突然,林妹妹上臺演講了:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

又一眨眼,妹妹已經坐在星爸爸喝咖啡了:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

當然啦,真人可以作為生成視頻的主體參照,虛擬角色/動漫人物同樣可以。

比如輸入一張漫畫女孩:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

生成視頻效果是醬紫的:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

這里附上一些官方給的小tips:

如需重點保持主體面容一致,需僅截取單一主體的清晰面容圖如需重點保持主體半身一致(面容+上半身服飾),僅需截取單一主體的清晰半身圖如需重點保持主體全身一致(全身特征),僅需截取單一主體的清晰全身圖動物主體

誰能不愛可愛狗狗!

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

把這張照片丟給Vidu,就能實現狗狗走草地上,一步一步靠近你。

鏡頭后拉和主體運動幅度表現都還不錯。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放商品主體

當把商品作為需要參照的主體時,在生成的視頻中,商品外觀和細節能在不同于圖片的場景中保持一致。

就像下面這樣:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

沙發所在的場景,說變就變。

上面還能睡一個蓋了毯子的小女孩,遮擋住沙發原有部分。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

需要注意的是,當前版本僅支持單一主體的可控。

如果上傳的圖片有多個人物/物體,需要框選出單一主體進行生成。

Be Like:

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放不再“兩步走”了

無論是制作短視頻、動畫作品還是廣告片,“主體一致、場景一致、風格一致”都是共同的追求。

因此,AI視頻生成內容想要有敘事效果,就需要不斷往三個一致方面盡力靠攏。

尤其是就現實情況而言,實際的視頻創作,內容往往圍繞特定的對象展開——這往往也是視頻生成內容最容易變形、崩壞的一點,尤其在涉及復雜動作和交互的情況下。

撓頭,腦闊痛。

給我一張臉,視頻背景隨你換,林黛玉都被清華理工男玩廢了|免費開放

業界首先想到的辦法是先AI生圖、再圖生視頻。

說人話,就是用Midjourney、SD什么的,生成分鏡鏡頭畫面,讓每張圖里的主體保持一致,然后再進行圖生視頻,最后把每個視頻片段拼接剪輯。

但一聽就發現了,這樣搞,無論是保持AI畫圖的一致性,還是后期拼拼剪剪,工作量都很大。

生數Vidu“主體參照”跟這個思路的不一樣之處,就是不再兩步走了。

而是通過“上傳主體圖+輸入場景描述詞”的方式,直接生成視頻素材。

最后,我們來厘清以及區分三個概念:

圖生視頻(Image to Video)角色一致性(Character to Video)主體參照(Subject Consistency)

圖生視頻基本是現在AI視頻生成的基操了。

它把輸入的圖片作為視頻首幀,然后基于首幀畫面的連續生成。

Bug是無法直接輸出目標場景,限制了視頻內容的多樣性和場景的自由度。

角色一致性,主要集中在人物形象上起效果。

它能保證人物面部特征在動態視頻中保持一致,但一般來說“一致性”只顧臉,不顧整體形象。

主體參照,面向任意主體。

同時在面向人物主體時,既可選擇保持面部一致,也可選擇保持人物整體形象的高度一致。

最后附上生數科技視頻試玩鏈接,感興趣的朋友可趁排隊人不多,趕緊沖一波!

畢竟,免費的就是香,對吧(doge)。

體驗直通車:www.vidu.studio

Tags:
相關推薦
免責聲明
本文所包含的觀點僅代表作者個人看法,不代表新火種的觀點。在新火種上獲取的所有信息均不應被視為投資建議。新火種對本文可能提及或鏈接的任何項目不表示認可。 交易和投資涉及高風險,讀者在采取與本文內容相關的任何行動之前,請務必進行充分的盡職調查。最終的決策應該基于您自己的獨立判斷。新火種不對因依賴本文觀點而產生的任何金錢損失負任何責任。

熱門文章