【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集

【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集

    正在检查是否收录...

1,视频地址

https://www.bilibili.com/video/BV1GN411j7NP/

大模型训练利器,使用LLaMa-Factory开源项目,对ChatGLM3进行训练,特别方便,支持多个模型,非常方方便

更多ChatGPT技术文章:

https://blog.csdn.net/freewebsys/category_12270092.html

1,关于LLaMa-Factory项目

项目地址:
https://github.com/hiyouga/LLaMA-Factory

LLaMA Board: 通过一站式网页界面快速上手 LLaMA Factory
使用 CUDA_VISIBLE_DEVICES=0 python src/train_web.py 启动 LLaMA Board。(该模式目前仅支持单卡训练)

与 ChatGLM 官方的 P-Tuning 微调相比,LLaMA-Factory 的 LoRA 微调提供了 3.7 倍的加速比,同时在广告文案生成任务上取得了更高的 Rouge 分数。结合 4 比特量化技术,LLaMA-Factory 的 QLoRA 微调进一步降低了 GPU 显存消耗。

2,安装LLaMa-Factory

先下载git 代码,然后执行安装:

git clone https://github.com/hiyouga/LLaMA-Factory.git cd /LLaMA-Factory pip3 install -r requirements.txt 

参考文档:
https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md

然后启动项目:

python3 src/train_web.py 

可以修改代码中的端口:

from llmtuner import create_ui def main(): demo = create_ui() demo.queue() demo.launch(server_name="0.0.0.0", server_port=6006, share=False, inbrowser=True) if __name__ == "__main__": main() 

3,启动成功

就可以看到界面了:

选择完成就可以预览脚本了:

然后就可以执行了。
过一会就可以看到过程图了:

可以展示进度百分百,和曲线了。确实非常方便。

GPU使用在23G左右:

资源消耗:

4,总结

工具还是非常的简单,可以把机构参数进行设置下。
主要就是把参数可视化,同时把结果也可视化。
非常的方便。进度也可以看到。
支持很多模型:

llamactogitcodegithubchatwebcreatepythongpu可视化广告文案生成urlchatgpt技术cloneshare多模型html大模型一站式生成任务ide广告文案gpt技术开源项目模型训练文案生成llmgpt数可视chatgpt
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-3416.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

76%的顶级金融公司正在使用AI/ML

上一篇

OpenAI新研究:让小模型来监督大模型能显著提高泛化性能

下一篇
  • 复制图片
按住ctrl可打开默认菜单