DeepSeek发布V2模型 GPT-4的性能白菜的价格

DeepSeek发布V2模型 GPT-4的性能白菜的价格

    正在检查是否收录...

DeepSeek在开源MoE(Mixture of Experts)模型领域取得了重要进展,继今年1月份开源国内首个MoE模型后,现在发布了第二代MoE模型:DeepSeek-V2。这一新模型在多项性能评测中均展现出色的表现,与GPT-4等闭源模型竞争,同时在成本效益上具有显著优势。

模型权重下载:https://top.aibase.com/tool/deepseek-v2-chat

体验地址:https://chat.deepseek.com/sign_in

DeepSeek-V2在主流模型评测榜单中表现卓越,尤其在中文综合能力(AlignBench)和英文综合能力(MT-Bench)上,与顶尖闭源模型并驾齐驱。此外,在知识、数学、推理、编程等专业榜单上,DeepSeek-V2也取得了领先位置。

DeepSeek-V2采用了创新的模型结构,提出了MLA(Multi-head Latent Attention)架构,该架构在减少计算量和推理显存方面有显著优势。结合自研的Sparse结构DeepSeekMoE,模型在保持性能的同时,将计算量降至最低。

DeepSeek-V2以较低的显存消耗实现了高性能,其每token成本大幅降低,使得实际部署在8卡H800机器上的输入吞吐量超过每秒10万tokens,输出超过每秒5万tokens。API定价为每百万tokens输入1元、输出2元,价格极具竞争力。

DeepSeek秉持开源精神,将DeepSeek-V2模型和相关论文完全开源,免费商用,无需申请。模型权重可在Hugging Face平台获取,技术报告则发布在GitHub上。

DeepSeek提供了对话官网和开放平台,用户可以在chat.deepseek.com免费开启对话,而DeepSeek API开放平台则提供注册即赠送大量tokens的优惠,以支持优质项目的发展。

tokenchatapi开放平台gpt-4gptgithub高性能githugging faceparseapi开放平台
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-13628.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

斯坦福20亿参数端测多模态AI Agent模型大升级,手机汽车机器人都能用

上一篇

爆火后反转?「一夜干掉MLP」的KAN:其实我也是MLP

下一篇
  • 复制图片
按住ctrl可打开默认菜单