Meta AI发布炸裂项目audio2photoreal 可将音频生成全身逼真的虚拟人物形象

Meta AI发布炸裂项目audio2photoreal 可将音频生成全身逼真的虚拟人物形象

    正在检查是否收录...
一言准备中...

Meta AI最近发布了一项引人注目的技术,他们成功地开发出一种能够从音频中生成逼真的虚拟人物形象的系统。

这个系统能够根据多人对话中的语音生成与对话相对应的逼真面部表情、完整身体和手势动作。这些虚拟人物不仅在视觉上非常逼真,而且能够准确地反映出对话中的手势和表情细节,例如指点、手腕抖动、耸肩、微笑和嘲笑等。

项目及演示:https://people.eecs.berkeley.edu/~evonne_ng/projects/audio2photoreal/

代码:https://top.aibase.com/tool/audio2photoreal

Demo:https://colab.research.google.com/drive/1lnX3d-3T3LaO3nlN6R8s6pPvVNAk5mdK

这个系统的工作原理如下:

首先,Meta AI团队捕获了一组丰富的双人对话数据集,这些数据集能够提供逼真的重建。然后,他们构建了一个复合运动模型,其中包括面部运动模型、引导姿势预测器和身体运动模型。

在生成面部运动时,系统使用预训练的唇部回归器处理音频,提取与面部运动相关的特征,并利用条件扩散模型生成面部运动。

在生成身体运动时,系统根据音频自回归地输出每秒1帧的向量量化(VQ)引导姿势。然后,将音频和引导姿势输入到扩散模型中,以每秒30帧的速度生成高频身体运动。

最后,生成的面部和身体运动被传入训练好的虚拟人物渲染器,生成逼真的虚拟人物。

最终展示的结果是根据音频生成的全身逼真虚拟人物,这些虚拟人物能够表现出对话中的细微表情和手势动作。

这项技术的发布将为虚拟人物的创造和应用领域带来巨大的进步。无论是在游戏开发、虚拟现实还是电影制作领域,这种能够从音频中生成逼真虚拟人物的系统都将发挥重要作用。

Meta AI的成果再次展示了他们在人工智能领域的卓越能力和创新精神。他们不断推动着技术的边界,为我们带来了一个全新的虚拟人物生成的时代。我们可以期待在不久的将来,这种技术将成为我们生活中不可或缺的一部分。

虚拟人虚拟人物数据集扩散模型生成面部人工智能条件扩散url面部表情引人注目人物生成对话数据向量量化虚拟人物形象条件扩散模型预训练模型生成google语音生成电影制作音频生成虚拟现实游戏开发人物形象
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-4864.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

新潮又免费!2024值得拥有的八款“开挂”工具!

上一篇

斯坦福炒虾机器人爆火全网!华人团队成本22万元,能做满汉全席还会洗碗

下一篇
  • 复制图片
按住ctrl可打开默认菜单