[玩转AIGC]LLaMA2之如何微调模型

[玩转AIGC]LLaMA2之如何微调模型

    正在检查是否收录...

目录

1、下载训练脚本 2、 下载模型 2.1、申请下载权限 2.2、模型下载 3、模型微调 3.1、使用单卡微调 3.2、使用多卡训练:

1、下载训练脚本

首先我们从github上下载Llama 2的微调代码:GitHub - facebookresearch/llama-recipes: Examples and recipes for Llama 2 model

执行命令:

git clone https://github.com/facebookresearch/llama-recipes cd llama-recipes 

下载完成之后,安装对应环境,执行命令:

pip install -r requirements.txt 

2、 下载模型

在这里我补充一下模型下载权限的申请

2.1、申请下载权限

需先在Meta上申请权限(国家选中国不行,要选其他国家)
https://ai.meta.com/resources/models-and-libraries/llama-downloads/

申请的邮箱必须是跟huggingface注册邮箱一致

申请完权限之后你会收到邮件:

然后再去HuggingFace上submit权限申请,连接在下面
https://huggingface.co/meta-llama/Llama-2-7b-hf

打开后点击提交:

提交后还要等待仓库作者的确认,请求将在 1-2 天内得到处理

实测大概一个小时,会有邮件通知已授权,邮件如下:

然后回到HuggingFace

点击头像->setting->Access Tokens 里面获取tokens


没有的话就自己创建一个token,也就是点击new token,再把创建的token复制下来

2.2、模型下载

有了权限就可以从HuggingFace上下载模型:https://huggingface.co/meta-llama

打开可看到模型有多个:


这里我们选择:Llama-2-7b-hf

通过代码下载:

下面的your token就是要填从你自己的HuggingFace复制下来的token,根据上面的步骤走过来,你已经申请过权限了,所以token可用

 import huggingface_hub huggingface_hub.snapshot_download( "meta-llama/Llama-2-7b-hf", local_dir="./Llama-2-7b-hf", token="your token" ) import huggingface_hub huggingface_hub.snapshot_download( "meta-llama/Llama-2-7b-hf", local_dir="./Llama-2-7b-hf", token="**********************" ) 

3、模型微调

3.1、使用单卡微调

#创建模型输出文件 mkdir output # 使用单卡 export CUDA_VISIBLE_DEVICES=0 #开始训练 python llama_finetuning.py --use_peft --peft_method lora --quantization --model_name Llama-2-7b-hf --output_dir output 

3.2、使用多卡训练:

比如多GPU单节点

 torchrun --nnodes 1 --nproc_per_node 4 examples/finetuning.py --enable_fsdp --use_peft --peft_method lora --model_name /path_of_model_folder/7B --fsdp_config.pure_bf16 --output_dir path/to/save/PEFT/model 

llamahuggingfacetokencodetpugitgithubsnapokrllama 2模型微调facebook邮件通知gpupythoncloneurl
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-4632.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

LLM之Colossal-LLaMA-2:源码解读(init_tokenizer.py文件)实现基于源词表的扩展、(init_model.py文件)实现过计算均值扩展模型、(prepare_pretr

上一篇

每个开发者都应该知道的6个生成式AI框架和工具

下一篇
  • 复制图片
按住ctrl可打开默认菜单