复旦研发出“眸思”大模型:助力视障者安全出行

复旦研发出“眸思”大模型:助力视障者安全出行

    正在检查是否收录...

快科技3月3日消息,据复旦大学官微发文,复旦大学自然语言处理实验室基于多模态大模型复旦眸思”(MouSi)为视障者量身打造的听见世界”APP上线,将成为视障人士的生活助手与智能管家。

2023年上半年,复旦大学自然语言处理实验室发布了开发MOSS对话式大型语言模型,被称为中国版的GPT,仅用半年时间多模态模型眸思”问世。

据介绍,眸思”与MOSS同音,眸思”和基于文本的MOSS不同,它能够理解并识别图片内容,致力于成为视障者的一双眸”。

基于眸思”,听见世界”APP为视障者日常生活需求量身打造街道行走模式、自由问答模式和寻物模式。

在街道行走模式中,眸思”如一位忠实的向导。红绿灯、十字路口、障碍物它能细致扫描道路情况,提示潜在风险,陪伴视障者安全通行看不见”的漫漫长路。

在自由问答模式中,眸思”则像一位贴心的朋友,走进博物馆、艺术馆、公园捕捉四周景象的每个细节,用声音构建丰富的生活场景,传递每一处日常之美。

在寻物模式中,眸思”将成为一名可靠的管家,被移动过的手杖、最爱口味的牛奶它可以让视障人士找寻日常物件变得轻松。

在基于几亿张图片训练出眸思”大模型基础上,针对视障者提出的各类需求,团队又用上万张图片进行特殊样本训练,使眸思”具备能够适配更多场景的能力。

据透露,今年上半年,团队将结合AR升级APP内的定位精度细化至亚米级别。下半年,团队希望将眸思”升级为基于视频的判断。目前,更多模式正在开发中,比如,阅读模式、解说模式等。

预计今年3月听见世界”APP将完成第一轮测试,在中国一、二线城市和地区同步开启试点,根据算力部署情况进行推广。

app大模型自然语言处理多模态自由问答语言处理自然语言多模式生活场景对话式多模态模型阅读模式生活助手大型语言模型语言模型gpt图片内容
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-9062.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

一秒出图?SDXL-Turbo实时AI绘画整合包下载

上一篇

大模型的未来:如何推动AIGC技术的进一步发展

下一篇
  • 复制图片
按住ctrl可打开默认菜单