斯坦福推可以在手机端跑的大模型 Octopusv2超越GPT-4一夜爆火

斯坦福推可以在手机端跑的大模型 Octopusv2超越GPT-4一夜爆火

    正在检查是否收录...

斯坦福大学的研究团队近日推出了一款名为Octopusv2的新型人工智能模型,这款模型以其在端侧设备上的强大运行能力而受到广泛关注。

Octopusv2是一款拥有20亿参数的开源语言模型,专为在Android设备上运行而设计,同时也适用于汽车、个人电脑等其他端侧设备。该模型在准确性和延迟方面的表现超越了GPT-4,并且在上下文长度上减少了95%,显示出了显著的性能优势。

论文:Octopus v2: On-device language model for super agent

论文地址:https://arxiv.org/abs/2404.01744

模型主页:https://huggingface.co/NexaAIDev/Octopus-v2

Octopusv2的推出,标志着设备端AI智能体时代的来临。与传统的云端AI模型相比,端侧AI模型能够在本地设备上直接处理数据,减少了对网络的依赖,提高了数据处理的速度和隐私性。Octopusv2的下载量在短时间内突破了2000次,显示出开发者社区对其的高度认可和兴趣。

Octopus-V2-2B模型的开发过程中,研究团队采用了创新的函数token策略,这使得模型在训练和推理阶段能够高效地生成复杂的函数调用。为了训练、验证和测试模型,团队创建了高质量的数据集,并采用了Google Gemini进行二进制验证支持。此外,研究团队还编写了20个Android API描述,用于模型的训练,以确保其在实际应用中的高效性和准确性。

在模型开发与训练方面,Octopusv2采用了Google Gemma-2B模型作为预训练基础,并结合了完整模型训练和LoRA模型训练两种方法。通过这些方法,模型在保持与GPT-4相当的性能水平的同时,显著提高了推理速度。在单个GPU上运行Octopus-V2-2B模型的代码也已经公开,方便开发者进行实验和应用。

在性能评估方面,Octopus-V2-2B在基准测试中表现出了卓越的推理速度,比Llama7B+RAG解决方案快36倍,并且在函数调用准确率上超越了31%。

与依赖集群A100/H100GPU的GPT-4-turbo相比,Octopus-V2-2B的速度提高了168%。这些效率上的突破,使得Octopus-V2-2B在速度和准确率上都展现出了强大的竞争力。

随着Octopusv2的推出,我们有理由相信,端侧AI的发展将为各种应用带来革命性的变革。无论是在智能手机、汽车还是个人电脑等设备上,Octopusv2都能够提供高效、准确的AI支持,推动智能设备向更加智能化的方向发展。对于那些对AI技术充满热情的开发者和企业来说,Octopusv2无疑提供了一个全新的平台,以探索和实现更多创新的应用场景。

cto开发者gpt-4gptai模型准确率准确性googlegpuroi模型训练idehuggingface智能模型预训练模型开发斯坦福大学token性能评估emma
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-12624.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

嵌入式人工智能在下一代智能手机中的兴起

上一篇

IT领导者可以从谷歌的GenAI起步不稳中学到什么

下一篇
  • 复制图片
按住ctrl可打开默认菜单