【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca

【类ChatGPT】本地CPU部署中文羊驼大模型LLaMA和Alpaca

    正在检查是否收录...
一言准备中...

昨天在github上看到一个在本地部署中文大模型的项目,和大家分享一下。先把地址po出来。

项目名称:中文LLaMA&Alpaca大语言模型+本地部署 (Chinese LLaMA & Alpaca LLMs)
项目地址:https://github.com/ymcui/Chinese-LLaMA-Alpaca

以下是原github中给出的体验GIF,可以看到这个模型还是具备一定的指令理解和上下文对话能力的。

由于模型使用的是LoRA(一种高效模型训练方法),所以整个模型的参数量是比较小的(压缩包大概不到800M),但是需要和原版Facebook的权重进行结合才能使用。其实Facebook开源了,但又没完全开源,薛定谔的猫(滑稽)。所以大家自己想办法去搞到原版权重吧。

整个合并流程在原项目里写的都比较清楚,大家可以自己去看一下,需要alpaca-lora和llama.cpp两个工具。
具体步骤就不赘述了,感兴趣的看一下项目中的描述。

我使用的是苹果M1芯片,整体上没遇到什么麻烦,很顺利的就完成了模型量化过程,最终模型大概是4G。接下来就可以欢快地在本地玩耍了。解码参数就用的项目中提供的默认配置。

接下来就用量化后的模型测一下效果。需要注意的是量化后会有精度损失,效果应该是没有完整版的好,但好在速度快。

我先问一个关于温室效应的问题

整体上我觉得答得还是蛮不错的,而且也具备一些上下文的理解能力,而不是单轮能力。

再问一个数学问题

可以看到这里的回答不尽人意,也是很多开源模型的硬伤,对数值计算和推理方面不是很在行。

如何制作宫保鸡丁?

可以看到制作宫保鸡丁的一些要素是包含了,但是可以想象出这个做出来可能并不是宫保鸡丁 ?

写一封信

写信方面做的还是不错的,虽然里面有一些小细节还需要再斟酌和修改。

最后再来几个翻译吧

整体翻译的还是不错的,没有什么大毛病。

总结

整体而言,该模型具备一定的中文理解能力,也有类似ChatGPT的指令执行和上下文理解能力,对于一些常规的非推理类的任务来说还是比较好的。但也能看到在数学、推理、代码等场景效果不好。这可能是因为训练数据里没有涉及太多这部分数据的关系。相信之后会有更多类似的模型出现,进一步降低大模型的门槛。

alpacallamagithubgit上下文本地部署facebook大模型chatgpt上下文理解中文理解lmsllms训练数据开源模型chatgif模型训练llmgpt语言模型大语言模型url
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-522.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

国产AI大模型:智谱清言 vs. 文心一言

上一篇

利用AIGC做副业,月入过万不是梦

下一篇
  • 复制图片
按住ctrl可打开默认菜单