元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

    正在检查是否收录...
一言准备中...

元象发布了 XVERSE-MoE-A4.2B 大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用于海量中小企业、研究者和开发者,推动低成本部署。

该模型具有极致压缩和超凡性能两大优势,采用稀疏激活技术,效果超越多个业界顶流模型,并接近超大模型。元象 MoE 技术自研创新,研发高效融合算子、细粒度专家设计、负载均衡损失项等,最终采用实验4对应的架构设置。

在商业应用上,元象大模型已与多个腾讯产品进行深度合作,为文化、娱乐、旅游、金融领域提供创新用户体验。

Hugging Face:https://huggingface.co/xverse/XVERSE-MoE-A4.2B

ModelScope魔搭:https://modelscope.cn/models/xverse/XVERSE-MoE-A4.2B

Github:https://github.com/xverse-ai/XVERSE-MoE-A4.2B

大模型githubgit用户体验开发者低成本中小企业小企业商业应用hugging face负载均衡huggingface混合专家模型混合专家研究者
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-12456.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

OS-Copilot:实现具有自我完善能力的通用计算机智能体

上一篇

华人又来炸场!一个命令工具让GPT-4干掉Devin和RAG!Jim Fan:提示工程2.0没必要了!

下一篇
  • 复制图片
按住ctrl可打开默认菜单