写真视频击败Sora?人大自研全新多模态大模型Awaker 1.0震撼登场

写真视频击败Sora?人大自研全新多模态大模型Awaker 1.0震撼登场

    正在检查是否收录...
一言准备中...

在人工智能领域,人大系初创公司智子引擎近日发布了一款名为Awaker1.0的全新多模态大模型,标志着向通用人工智能(AGI)迈出了重要一步。该模型在写真视频效果上超越了Sora,展现了其在视觉生成方面的卓越能力。

4月27日,在中关村论坛的通用人工智能平行论坛上,智子引擎展示了这款业界首个真正实现自主更新的多模态大模型。Awaker1.0采用了创新的MOE架构,具备自主更新能力,能够生成高质量的多模态内容,模拟现实世界,同时在执行任务中将场景行为数据反哺给模型,实现持续更新与训练。

在视觉问答和业务应用任务上,Awaker1.0的基座模型超越了GPT-4V、Qwen-VL-Max和Intern-VL等国内外先进模型。此外,它还在描述、推理和检测任务上达到了次好的效果,证明了多任务MOE架构的有效性。

结合具身智能,Awaker1.0被认为可能成为实现AGI的可行路径。它通过自主探索环境,发现新策略和解决方案,提升具身智能的适应性和创造性。Awaker1.0的自主更新机制包含数据主动生成、模型反思评估和模型连续更新三大关键技术,使其能够实时持续地更新参数。

智子引擎自主研发的类Sora视频生成底座VDT,作为现实世界的模拟器,展现了Transformer技术在视频生成领域的潜力。VDT能够处理多种视频生成任务,如无条件生成、视频后续帧预测等,并在写真视频生成任务上取得了比Sora更好的质量。

Awaker1.0的发布是智子引擎团队向实现AGI目标迈进的关键一步。团队认为,AI的自我探索、自我反思等自主学习能力是智能水平的重要评估标准。Awaker1.0在理解侧和生成侧都实现了效果突破,有望加速多模态大模型行业的发展,最终让人类实现AGI。

多模态视频生成人工智能sora大模型生成任务多任务自主学习视觉生成自我反思条件生成视觉问答初创公司自我探索模拟器transformer解决方案高质量gptgpt-4
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-13430.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

Sora大片真相:人工特效参与,被指误导大众

上一篇

Sora爆火短频“气球人”制作者亲述优缺点:视频其实都是专业制作,Sora占一小部分;一致性不能很好控制;似有识别版权问题的机制

下一篇
  • 复制图片
按住ctrl可打开默认菜单