[大模型] 搭建llama主流大模型训练环境

[大模型] 搭建llama主流大模型训练环境

    正在检查是否收录...

关键词:大模型,LLAMA,CUDA,模型训练

1. 基础环境

OS: Ubuntu 18.04
GPU: 4*A100(40G) (单机4卡A100 40G)
CUDA:11.7
cuDNN: 8.4.1 (需要登录官网后下载)
nccl: 2.12.12 (需要登录官网后下载)
python: 3.10 (conda create -n vllm python=3.10)
pytorch: 2.0.0+cu117 离线安装包地址
LLaMA-7B/13B/30B/65B模型: 下载地址,需要安装ipfs,也可通过pyllama进行下载:

pip install pyllama -U python -m llama.download --model_size 7B 

实验模型: stanford_alpaca, standford_lora, Chinese-LLaMA-Alpaca

注意先安装cuDNN,再安装CUDA,使用nvidia-sminvcc -V查看是否安装成功。

2. 将原生llama模型转换为HF模型格式

由于llama模型尚未合入官方transformers,需要从源码安装fork版本的tranformers以便进行llama模型格式转换与加载:

git clone https://github.com/zphang/transformers.git cd transformers python setup.py install 

将llama-7B模型使用fork transformers版本转换为HF模型格式,转换后得到两个文件夹llama-7b和tokenizer

python src/transformers/models/llama/convert_llama_weights_to_hf.py \ --input_dir /data/xh/models/llama \ --model_size 7B \ --output_dir /data/xh/models/llama_hf #注意:在加载模型的时候,需要将tokenizer文件夹中的内容复制到llama-7b下 cd /data/xh/models/llama_hf cp tokenizer/* llama-7b/ 

3. 基于llama模型进行再训练或finetuning

搭建好基础环境后,以llama_hf模型为基础,可以对衍生模型stanford_alpaca, standford_lora, Chinese-LLaMA-Alpaca继续进行预训练训练或进行finetuning训练了。

# 加载llama模型,注意使用fork版本的transformers tokenizer = transformers.LlamaTokenizer.from_pretrained("/data/xh/models/llama_hf/tokenizer/") model = transformers.LlamaForCausalLM.from_pretrained("/data/xh/models/llama_hf/llama-7b/") 

参考
https://zhuanlan.zhihu.com/p/618321077

-------- END --------

llamacodetransformertransformerstokenpythonalpacagit文件夹llm大模型clonenvccreatetpu格式转换预训练gpupytorch关键词模型训练githuburl
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-380.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

实验证明,基于AI的干预帮助大学生通过STEM课程

上一篇

抖音即创app地址入口 即创公测版AI自动剪辑软件下载

下一篇
  • 复制图片
按住ctrl可打开默认菜单