LLaMA-Factory可视化界面微调chatglm2;LoRA训练微调模型 简单案例

LLaMA-Factory可视化界面微调chatglm2;LoRA训练微调模型 简单案例

    正在检查是否收录...
一言准备中...

参考:https://github.com/huggingface/peft
https://github.com/hiyouga/LLaMA-Factory

1、LLaMA-Factory可视化界面微调chatglm2

类似工具还有流萤,注意是做中文微调训练这块;来训练微调的chatglm2需要完整最新文件,不能是量化后的模型;另外测试下来显卡资源要大于20来G才能顺利,这边T4单卡训练中间显存不足,需要开启4bit量化才行

1)下载github代码
2)运行web界面

CUDA_VISIBLE_DEVICES=0 python src/train_web.py 


3)chatglm2代码下载最新的:https://huggingface.co/THUDM/chatglm2-6b/tree/main
4)配置好参数即可点击开始训练

显卡使用:<

chatgithubgitllamahuggingfacewebcodecto可视化pythonweb界面微调训练url
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-1736.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

解锁大语言模型“黑匣子”

上一篇

Wow官网体验入口 美团AI聊天软件免费app下载

下一篇
  • 复制图片
按住ctrl可打开默认菜单