AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

AI-windows下使用llama.cpp部署本地Chinese-LLaMA-Alpaca-2模型

    正在检查是否收录...

文章目录

Llamp.cpp环境配置 Chinese-LLaMA-Alpaca-2模型介绍 模型下载 转换生成量化模型 Anaconda环境安装 运行

Llamp.cpp环境配置

git clone git@github.com:ggerganov/llama.cpp.git cd llama.cpp mkdir build cd build cmake .. cmake --build . --config Release 

生成的文件在.\build\bin\,我们要用的是main.exebin\main.exe -h查看使用帮助

Chinese-LLaMA-Alpaca-2模型介绍

本项目基于Meta发布的可商用大模型Llama-2开发,是中文LLaMA&Alpaca大模型的第二期项目,开源了中文LLaMA-2基座模型和Alpaca-2指令精调大模型。这些模型在原版Llama-2的基础上扩充并优化了中文词表,使用了大规模中文数据进行增量预训练,进一步提升了中文基础语义和指令理解能力,相比一代相关模型获得了显著性能提升

项目地址https://github.com/ymcui/Chinese-LLaMA-Alpaca-2

模型下载


我们选择2-7B的版本,进入huggingface:https://huggingface.co/hfl/chinese-llama-2-7b

llamagitalpaca大模型githubhuggingfacegan预训练量化模型性能提升clone
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-16375.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

一文教会你用Stable Diffusion做个性化头像丨使用ControlNet插件和IP-Adapter模型

上一篇

深入浅出学习Stable diffusion之ADetailer面部修复

下一篇
  • 复制图片
按住ctrl可打开默认菜单