图像涂哪就动哪!Gen-2新功能“神笔马良”爆火,网友:急急急

图像涂哪就动哪!Gen-2新功能“神笔马良”爆火,网友:急急急

    正在检查是否收录...

AI搞视频生成,已经进化到这个程度了?!

对着一张照片随手一刷,就能让被选中的目标动起来!

明明是一辆静止的卡车,一刷就跑了起来,连光影都完美还原:

原本只是一张火灾照片,现在随手一刷就能让火焰直冲天际,热度扑面而来:

这样下去,哪还分得清照片和实拍视频!

原来,这是Runway给AI视频软件Gen-2打造的新功能,一涂一刷就能让图像中的物体动起来,逼真程度不亚于神笔马良。

虽然只是个功能预热,不过效果一出就在网上爆火:

看得网友一个个变身急急国王,直呼“等不及想要尝试一波”:


Runway同时还放出了更多功能预热效果,一起来看看。

照片变视频,指哪就动哪

这个Runway新出的功能,叫做

运动笔刷

(Motion Brush)。

顾名思义,只需要用这个笔刷对着画面中的任意对象“涂”一下,就能让他们动起来。

不仅可以是静止的人,连裙摆和头部的动作都很自然:

还可以是流动的液体如瀑布,连雾气都能还原:

或者是一根还没熄灭的烟:

一团正在众人面前燃烧的篝火:

更大块的背景也能做成动态的,甚至改变画面的光影效果,例如正在飞速移动的乌云:

当然,上面这些都还是Runway“亮明牌”,主动告诉你他们对照片“做了手脚”。

下面这些没有涂抹痕迹的视频,更是几乎完全看不出有AI修饰的成分在里面:

一连串效果炸出,也导致功能还没正式放出来,网友已经迫不及待了。

不少人试图理解这个功能究竟是怎么实现的。也有网友更关注功能啥时候出,希望到时候直接321上链接(手动狗头)

确实可以期待一波了。

不过,不止是Runway推出的这个Motion Brush新功能。

最近一连串的AI生成进展似乎都在表明,视频生成领域似乎真要迎来技术大爆发了。

AI生成视频真要崛起了?

就像在这几天,还有网友开发了很火的文生动画软件Animatediff的新玩法。

只需要结合最新的研究LCM-LORA,生成16帧的动画视频只需要7秒钟的时间。

LCM-LORA是清华大学和Hugging Face新出的一个AI图片生成技术,可以让Stable Diffusion的图片生成速度大幅提升。

其中,LCM(Latent Consistency Models)是基于今年早些时候OpenAI的“一致性模型”提出来的一种图像生成新方法,能快速生成768×768的高分辨率图片。

但LCM不兼容现有模型,因此清华和抱抱脸的成员又新出了一版LCM-LORA模型,可以兼容所有Stable Diffusion模型,加速出图速度。

结合Animatediff软件,生成一个这样的动画只需要7秒钟左右:

目前LCM-LORA已经在抱抱脸上开源。

你感觉最近的AI视频生成进展如何,距离可用上还有多远?

参考链接:
[1]https://twitter.com/runwayml/status/1723033256067489937。
[2]https://twitter.com/op7418/status/1723016460220735748。

lcm视频生成ai生成图片生成twitterstable diffusionai视频diffusionai图片动画视频生成技术生成速度latent consistency一致性多功能hugging faceai视频生成ai图片生成高分辨率生成视频快速生成openai图像生成url
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-315.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

使用stable diffusion webui时,安装gfpgan失败的解决方案(windows下的操作)

上一篇

Stable Diffusion人工智能图像合成

下一篇
  • 复制图片
按住ctrl可打开默认菜单