Nvidia 和 Mistral AI 的超精确小语言模型适用于笔记本电脑和 PC

Nvidia 和 Mistral AI 的超精确小语言模型适用于笔记本电脑和 PC

    正在检查是否收录...

Nvidia 和 Mistral AI 发布了一款新型的小型语言模型,据称该模型在小体积下依然具有「最先进」的准确性。该模型名为 Mistral-NemMo-Minitron 8B,是 NeMo 12B 的迷你版本,参数量从 120 亿缩减到了 80 亿。

据 Nvidia 深度学习研究副总裁 Bryan Catanzaro 在博客文章中介绍,这款 80 亿参数的小型语言模型通过两种不同的 AI 优化方法实现了规模缩减。开发团队使用了结合剪枝和蒸馏的技术。「剪枝通过去除对准确性贡献最小的模型权重来缩小神经网络的规模。蒸馏过程中,团队在一个较小的数据集上重新训练了这个经过剪枝的模型,从而大幅提高了因剪枝导致的准确性下降。」

这些优化使得开发人员能够在「原始数据集的一小部分」上训练优化后的语言模型,从而在计算成本上节省高达 40 倍。通常情况下,AI 模型需要在模型规模和准确性之间进行权衡,但通过 Nvidia 和 Mistral AI 的新剪枝和蒸馏技术,语言模型可以同时兼顾这两者。

配备了这些增强功能的 Mistral-NeMo-Minitron 8B 据称在九项同类规模的语言驱动 AI 基准测试中表现出色。所节省的计算资源足以让笔记本电脑和工作站 PC 本地运行 Minitron 8B,使其比云服务更快且更安全。

Nvidia 围绕消费者级计算硬件设计了 Minitron 8B。该语言模型被封装为 Nvidia NIM 微服务,并针对低延迟进行了优化,以提高响应速度。Nvidia 通过其定制模型服务 AI Foundry,将 Minitron 8B 调整为能够在低配置设备(如智能手机)上运行。尽管性能和准确性可能略有下降,但 Nvidia 表示该模型仍然是高准确性的语言模型,并且只需极少的训练数据和计算资源。

剪枝和蒸馏技术似乎是人工智能性能优化的下一前沿。理论上,开发者可以将这些优化技术应用于所有现有的语言模型,从而显著提升整体性能,包括那些只能由 AI 加速服务器群组运行的大型语言模型。

总结

**总结**:
Nvidia与Mistral AI联合发布了名为Mistral-NeMo-Minitron 8B的小型语言模型,该模型是NeMo 12B的精简版,参数量从120亿缩减至80亿,同时保持了高度的准确性。这一成就得益于先进的剪枝和蒸馏技术,这些技术不仅缩小了模型规模,还通过重新训练剪枝后的模型在较小数据集上显著恢复了准确性。相比传统AI模型,Minitron 8B在计算成本上降低了高达40倍,使得其能在笔记本电脑、工作站PC甚至智能手机等低配置设备上高效运行,提供了更快且更安全的语言处理能力。此外,Minitron 8B被封装为Nvidia NIM微服务,针对低延迟进行了优化,进一步提升了响应速度。剪枝和蒸馏技术的广泛应用前景也被看好,有望成为未来AI性能优化的重要手段。 语言模型准确性数据集笔记本智能手机笔记本电脑计算资源性能优化微服务定制模型mmo训练优化广泛应用本地运行训练数据服务器ai模型人工智能开发人员ai 模型
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-19605.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

[AIGC] Doris:一款高效的MPP数据仓库引擎

上一篇

Datawhale X 魔搭 AI夏令营 AIGC Task2笔记

下一篇
  • 复制图片
按住ctrl可打开默认菜单