圖像涂哪就動(dòng)哪!Gen-2新功能“神筆馬良”爆火,網(wǎng)友:急急急
AI搞視頻生成,已經(jīng)進(jìn)化到這個(gè)程度了?!
對(duì)著一張照片隨手一刷,就能讓被選中的目標(biāo)動(dòng)起來(lái)!

明明是一輛靜止的卡車,一刷就跑了起來(lái),連光影都完美還原:

原本只是一張火災(zāi)照片,現(xiàn)在隨手一刷就能讓火焰直沖天際,熱度撲面而來(lái):

這樣下去,哪還分得清照片和實(shí)拍視頻!
原來(lái),這是Runway給AI視頻軟件Gen-2打造的新功能,一涂一刷就能讓圖像中的物體動(dòng)起來(lái),逼真程度不亞于神筆馬良。
雖然只是個(gè)功能預(yù)熱,不過(guò)效果一出就在網(wǎng)上爆火:

看得網(wǎng)友一個(gè)個(gè)變身急急國(guó)王,直呼“等不及想要嘗試一波”:


Runway同時(shí)還放出了更多功能預(yù)熱效果,一起來(lái)看看。
照片變視頻,指哪就動(dòng)哪
這個(gè)Runway新出的功能,叫做運(yùn)動(dòng)筆刷(Motion Brush)。
顧名思義,只需要用這個(gè)筆刷對(duì)著畫(huà)面中的任意對(duì)象“涂”一下,就能讓他們動(dòng)起來(lái)。
不僅可以是靜止的人,連裙擺和頭部的動(dòng)作都很自然:

還可以是流動(dòng)的液體如瀑布,連霧氣都能還原:

或者是一根還沒(méi)熄滅的煙:

一團(tuán)正在眾人面前燃燒的篝火:

更大塊的背景也能做成動(dòng)態(tài)的,甚至改變畫(huà)面的光影效果,例如正在飛速移動(dòng)的烏云:

當(dāng)然,上面這些都還是Runway“亮明牌”,主動(dòng)告訴你他們對(duì)照片“做了手腳”。
下面這些沒(méi)有涂抹痕跡的視頻,更是幾乎完全看不出有AI修飾的成分在里面:

一連串效果炸出,也導(dǎo)致功能還沒(méi)正式放出來(lái),網(wǎng)友已經(jīng)迫不及待了。
不少人試圖理解這個(gè)功能究竟是怎么實(shí)現(xiàn)的。也有網(wǎng)友更關(guān)注功能啥時(shí)候出,希望到時(shí)候直接321上鏈接(手動(dòng)狗頭)

確實(shí)可以期待一波了。
不過(guò),不止是Runway推出的這個(gè)Motion Brush新功能。
最近一連串的AI生成進(jìn)展似乎都在表明,視頻生成領(lǐng)域似乎真要迎來(lái)技術(shù)大爆發(fā)了。
AI生成視頻真要崛起了?
就像在這幾天,還有網(wǎng)友開(kāi)發(fā)了很火的文生動(dòng)畫(huà)軟件Animatediff的新玩法。

只需要結(jié)合最新的研究LCM-LORA,生成16幀的動(dòng)畫(huà)視頻只需要7秒鐘的時(shí)間。
LCM-LORA是清華大學(xué)和Hugging Face新出的一個(gè)AI圖片生成技術(shù),可以讓Stable Diffusion的圖片生成速度大幅提升。
其中,LCM(Latent Consistency Models)是基于今年早些時(shí)候OpenAI的“一致性模型”提出來(lái)的一種圖像生成新方法,能快速生成768×768的高分辨率圖片。
但LCM不兼容現(xiàn)有模型,因此清華和抱抱臉的成員又新出了一版LCM-LORA模型,可以兼容所有Stable Diffusion模型,加速出圖速度。

結(jié)合Animatediff軟件,生成一個(gè)這樣的動(dòng)畫(huà)只需要7秒鐘左右:

目前LCM-LORA已經(jīng)在抱抱臉上開(kāi)源。

你感覺(jué)最近的AI視頻生成進(jìn)展如何,距離可用上還有多遠(yuǎn)?
參考鏈接:
[1]https://twitter.com/runwayml/status/1723033256067489937。
[2]https://twitter.com/op7418/status/1723016460220735748。































