本地部署中文LLaMA模型实战教程,民间羊驼模型

本地部署中文LLaMA模型实战教程,民间羊驼模型

    正在检查是否收录...

羊驼实战系列索引

博文1:本地部署中文LLaMA模型实战教程,民间羊驼模型(本博客)
博文2:本地训练中文LLaMA模型实战教程,民间羊驼模型
博文3:精调训练中文LLaMA模型实战教程,民间羊驼模型

简介

LLaMA大部分是英文语料训练的,讲中文能力很弱。如果我们想微调训练自己的LLM模型,基于一个大规模中文语料预训练的模型比较好。目前开源项目很多,理想的项目要有以下特点:
模型开源、训练代码开源、代码结构简单、环境容易安装、文档清晰。
经过寻找与试验,我找到了一个比较好的项目。
https://github.com/ymcui/Chinese-LLaMA-Alpaca
本博文要点如下:
1 实战部分:模型下载与参数合并、模型命令行加载测试、模型部署为web网页(解决了一些报错问题)
2 代码走读:模型参数合并、词表扩充
3 原理分析:预训练与指令精调

实战

系统环境

系统:Ubuntu 20.10
CUDA Version: 11.8 (我推荐11.7)
GPU: RTX3090 24G
内存: 64 G
anaconda(python版本

llama预训练llmgithubpython模型部署命令行gpu开源项目git模型比较alpacaweb微调训练本地部署url
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-2326.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
1.3W+
5
0
1
WAP站长官方

手机上0.2秒出图、当前速度之最,谷歌打造超快扩散模型MobileDiffusion

上一篇

能耗比达到GPT-4 10倍!黄学东亲自解密Zoom AI的成功之道,AI伴侣直接替你开会

下一篇
  • 复制图片
按住ctrl可打开默认菜单