【大模型系列 06】LLaMA-7B/13B for PyTorch 昇腾迁移

【大模型系列 06】LLaMA-7B/13B for PyTorch 昇腾迁移

    正在检查是否收录...

源码链接

https://gitee.com/ascend/ModelZoo-PyTorch/tree/master/PyTorch/built-in/foundation/LLaMA-13B

LLaMA-7B/13B for PyTorch

概述

简述

LLaMA是由Meta AI发布的大语言系列模型,完整的名字是Large Language Model Meta
AI。LLaMA按照参数量的大小分为四个型号:LLaMA-7B、LLaMA-13B、LLaMA-30B与LLaMA-65B。LLaMA
模型的效果极好,LLaMA-13B在大多数基准测试中的表现都优于GPT-3(175B
),且无需使用专门的数据集,只使用公开可用的数据集即可至训练至最优。本工程基于FastChat仓,主要聚焦于LLaMA-7B/13B模型。

参考实现:

url=https://github.com/lm-sys/FastChat.git commit_id=76f0424d1add61aadc8e5bdeed5ebe540f266ba3 

适配昇腾 AI 处理器的实现:

url=https://gitee.com/ascend/ModelZoo-PyTorch.git code_path=PyTorch/built-in/foundation 

准备训练环境

准备环境

默认配置需要每张卡有60G以上空闲内存。

当前模型支持的 PyTorch 版本和已知三方库依赖如下表所示。

表 1 版本支持表

Torch_Version 三方库依赖版本 PyTorch 1.11 deepspeed 0.6.0

环境准备指导

请参考《Pytorch框架训练环境准备》。

安装依赖

在模型源码包根目录下执行以下命令,安装依赖。

pip3 install --upgrade pip pip3 install einops sympy regex decorator scipy setuptools scm prompt toolkit 

编译安装fschat

在模型源码包根目录下执行命令,安装fachat库。

pip3 install -e. 

安装deepspeed及对应deepspeed_npu插件。

在模型源码包根目录下执行以下命令,安装deepspeed。

pip3 install deepspeed==0.6.0 git clone https://gitee.com/ascend/DeepSpeed.git cd DeepSpeed python setup.py develop 

使用whereis命令查看deepspeed安装路径/path/to/deepspeed/bin/deepspeed
,并将deepspeed_npu包导入。

打开"/path/to/deepspeed/bin/deepspeed"文件。

vim /path/to/deepspeed/bin/deepspeed 

按“i”进入编辑模式,在“/path/to/deepspeed/bin/deepspeed”中增加以下内容。

import deepspeed_npu 

按“ESC”键,输入:wq!,按“Enter”保存并退出编辑。

替换transformers库中相关文件

将源码包根目录下transformers_modify文件夹中的各个文件分别替换到transformers
安装目录下的对应位置(基于transformers 4.28.1版本):

training_args.py -> transformers/training_args.pu trainer.py -> transformers/trainer.py versions.py -> utils/versions.py modeling_llama.py -> transformers/models/llama/modeling_llama.py 

安装pdsh(多机训练需要)

deepspeed的多机训练需要安装pdsh,下载链接:https://github.com/chaos/pdsh/releases/download/pdsh-2.34/pdsh-2.34.tar.gz.

安装方法如下:

chmod 777 configure ./configure --with-ssh --build=arm-linux make make install 

准备数据集

获取数据集

该任务以基于gpt3问答的数据集进行finetuning训练。

以alpaca-data-conversation数据集为例,数据集结构参考如下所示。

[ { "id": "1", "conversations": [ { "from": "human", "value": "Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\nGive three tips for staying healthy.\n\n### Response:" }, { "from": "gpt", "value": "1.Eat a balanced diet and make sure to include plenty of fruits and vegetables. \n2. Exercise regularly to keep your body active and h2. \n3. Get enough sleep and maintain a consistent sleep schedule." } ] }, { "id": "2", "conversations": [ { "from": "human", "value": "Below is an instruction that describes a task. Write a response that appropriately completes the request.\n\n### Instruction:\nWhat are the three primary colors?\n\n### Response:" }, { "from": "gpt", "value": "The three primary colors are red, blue, and yellow." } ] }, ... 

说明:
该数据集的训练过程脚本只作为一种参考示例。

数据预处理

基于上述格式的数据集无需预处理即可训练,若为其他对话数据集,则需修改为上述格式。

获取预训练模型

参考链接:原始仓库上的README.md

Vicuna预训练参数介绍

Vicuna预训练参数以增量权重的形式发布,以符合LLaMA模型的license。用户可以通过将该增量权重叠加到
LLaMA原始权重上实现来使用,主要分为如下两步:

通过该链接获取huggingface形式的llama原始模型参数; 使用下面步骤获取Vicuna增量权重,它会自动从huggingface上下载增量权重;
Vicuna-7B

在源码包根目录下执行下列命令获得7B预训练模型(下载7B预训练模型大概需要占用30GB的CPU RAM空间)。

python3 -m fastchat.model.apply_delta \ --base-model-path /path/to/llama-7b \ --target-model-path /output/path/to/vicuna-7b \ --delta-path lmsys/vicuna-7b-delta-v1.1 
Vicuna-13B

在源码包根目录下执行下列命令获得13B预训练模型(下载7B预训练模型大概需要占用60GB的CPU RAM空间)。

python3 -m fastchat.model.apply_delta \ --base-model-path /path/to/llama-13b \ --target-model-path /output/path/to/vicuna-13b \ --delta-path lmsys/vicuna-13b-delta-v1.1 

下载完毕后,可以在源码包根目录下找到对应的预训练参数文件夹。

开始训练

训练模型

进入解压后的源码包根目录。

cd /${模型文件夹名称} 

运行训练脚本。

该模型支持单机8卡训练和双机16卡训练。

将数据集置于源码包根目录下playground/data文件夹内(若路径不存在请用户自行创建)。

单机八卡训练(LLaMA-7B)

bash ./7B_finetune.sh 

双机16卡训练(LLaMA-13B)

bash ./13B_finetune.sh 

模型训练脚本参数说明如下。

 --model_name_or_path // 预训练参数路径 --data_path // 数据集路径 --fp16 // 参数使用fp16保存 --num_train_epochs // 训练epoch数 --per_device_train_batch_size // 每张卡上的训练batch size --per_device_eval_batch_size // 每张卡上的评估batch size --gradient_accumulation_steps // 梯度累积的步数 --evaluation_strategy // 评估策略 --save_strategy // ckpt保存策略 --save_steps // ckpt保存间隔步数 --save_total_limit // ckpt最大保存数量 --learning_rate // 学习率 --weight_decay // weight decay策略 --warmup_ratio // warmup步数的比例 --lr_scheduler_type // 学习率衰减方式 --logging_steps // 训练日志打印间隔步数 --tf32 False // 使用tf32训练,npu暂不支持 --model_max_length // 模型训练的sequence length --gradient_checkpointing // 是否开启重计算 --deepspeed // deepspeed配置脚本路径 

deepspeed参数说明如下。

 --fp16 // 混合精度训练相关配置 --optimizer // 优化器相关配置 --zero_optimization // zero优化器相关配置 --gradient_accumulation_steps // 梯度累积步数 --gradient_clipping // 梯度裁剪 --train_batch_size // 训练batch size --train_micro_batch_size_per_gpu // 训练micro batch size 

训练完成后,权重文件保存在output_dir下,并输出模型训练精度和性能信息。

训练结果展示

表 2 训练结果展示表

NAME Acc@1 FPS(tokens/s/p) Epochs Zero_Type 7B-竞品A - 2452 3 zero1 7B-NPU - 2990 3 zero1 13B-竞品A - 1386 3 zero2 13B-NPU - 1498 3 zero2

模型推理

支持模型

Vicuna,LLaMA

执行推理

执行下列命令以完成模型推理(基于单NPU,推理13B模型大约需要28GB显存,推理7B模型大约需要14G显存)。

python3 -m fastchat.serve.cli --model-path path/to/FastChat/7B-vicuna --num-gpus 1 python3 -m fastchat.serve.cli --model-path path/to/FastChat/13B-vicuna --num-gpus 1 

版本说明

变更

2023.07.05 首次发布。

FAQ

无。

codellama数据集chat预训练gitpytorchtransformertransformerseltpython预训练模型文件夹appgptgpusattpu模型训练conversationurlelocli模型推理cpubashhuggingfacelmsgithubcliplinux数据预处理对话数据tokenalpacafaqpromptsshclonegpt-3gpt3
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-674.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

一招分辨刷榜作弊大模型,博士小哥开源AI数学“照妖镜”

上一篇

Google Photos推出AI功能,智能整理照片,分类更便捷

下一篇
  • 复制图片
按住ctrl可打开默认菜单