Stable Diffusion如何训练属于自己的Lora模型

Stable Diffusion如何训练属于自己的Lora模型

    正在检查是否收录...
一言准备中...

Stable Diffusion如何训练属于自己的Lora模型

前面(Stable diffusion的本地部署以及使用)介绍了那么多,相信你一定对Stable Diffusion有了一定的认知,那么你是否也在想:我下载的都是别人训练的模型,那我该怎么样得到一个属于我自己风格的模型呢?

嘿嘿,我猜大家都想要一个属于自己的Lora模型,今天就来教大家如何通过Stable Diffusion自带的训练器来训练自己的模型!!!

安装前的准备

1.Kohya_ss GUI安装

对于我们普通消费级电脑来说,在所有的模型训练中,似乎只有LoRA可以利用少量的数据进行训练了,而Kohya_ss GUI则是一个非常方便的LoRA训练的平台。

2.创建python虚拟环境

作者自作聪明的认为小伙伴们已经会使用anaconda了,没有安装anaconda的小伙伴请自行查阅安装教程

首先win+r输入cmd回车
输入:

conda create -n kohyass python=3.10 conda activate kohyass 

clone项目并下载依赖

git clone https://ghproxy.com/https://github.com/kohya-ss/sd-scripts.git cd sd-scripts pip install --upgrade -r requirements.txt git reset --hard 3633e1afc7bffbe61957f04e7bb1a742ee910ace 

这里我下载了CUDA,因为CUDA可以帮助我们更快速的训练模型
CUDA的下载请自行查阅,切记对应自己python版本的torch和cuda版本

pip install torch==1.12.1+cu116 torchvision==0.13.1+cu116 --extra-index-url https://download.pytorch.org/wh1/cu116 
3.在sd-scripts同级目录安装kohya_ss
git clone https://ghproxy.com/https://github.com/bmaltais/kohya_ss.git pip install --upgrade -r requirements.txt 
4.点击文件夹中的gui.bat或者gui-user.bat以启动koyya_ss
5.老样子,下载好所有的依赖和环境后,点击网址进入web界面。

模型训练准备

准备你想训练的风格或者人物
比如我准备训练一个迪丽热巴的真人写实模型,先从网上下载有关迪丽热巴的照片(真人模型至少70张,动漫20张)保存到新建文件夹1_in里

要求图片清晰,背景单一,突出人物主体,统一剪裁到512*512的(太大训练时显卡给你烧了
返回到先前的Stable Diffusion对图像进行标签处理

处理完成后,1_out里面每一张图片会多了一个.text文件,这是对图像打的标签。

打开文件之后,可以看到类似的文字描述“dilireba a woman in a black dress with a red lipstick”。作为简单的练手,我们不需要修改任何东西。如果你要提升效果,可以手动加入更加详细,更加精准的描述。

打开kohya_ss

先将④处的模型快速选择(Model Quick Pick)设置成自定义(Custom),这里也可以用预设的V1.5,V2.1。但是使用这些预设模型,会需要很长的时间在线下载,而且会占据巨大的C盘空间,不是很推荐。

然后在左边③这里选择具体的本地模型,我这里用的是适合亚洲人的chilloutmix模型(需要自己下载)。通过点击输入框后面的文件图标,找到具体的模型文件就可以了。

然后右边⑤处的模型保存格式选择safetensors。

文件夹设置
参数调节(新手建议默认)

以下是我的参数(显卡差点儿爆炸,所以真心建议默认)

开始训练!!!!

导入模型

搞了那么久终于可以用了。lora模型的使用,我们之前的文章里面已经有详细的介绍了,这里就简单的演示一下。
当lora训练结束之后,会在对应的model文件下面生成模型文件。比如下图


然后选择好模型,输入关键词,选择对应的lora,然后点击生成即可,刚开始不要加任何复杂的关键词,只用最基础的,比如 “a woman dilireba” 然后加上我们自己训练lora。关于Lora字符串,你可以直接输入,也可以通过图中圆圈处找到对应的Lora点击一下导入。导入的时候最右侧的参数默认为1,需要修改一下,改成0.7或者0.8。

如果Lora练的还可以,这个时候出来的图片应该是相识度比较高的。然后就可以在这个基础词语上做一些变化了,比如加一个“wearing a suit” (穿着西装)就可以得到下面的图片了。

关于如何安装Stable Diffusion可以参考我的另一篇文章:https://github.com/Mr-Poole3/Stable-Diffusion

再次感谢
https://github.com/Stability-AI/StableDiffusion
https://github.com/OpenTalker/SadTalker
https://github.com/bmaltais/kohya_ss
项目的开源!!!

总结

这个链接可能存在安全风险,为了保护您的设备和数据安全,请避免访问此链接。 gitdiffusionstable diffusiongithubguiclonepythonscript文件夹proxy模型训练关键词数据安全create本地部署ivaweb界面webutm生成模型
  • 本文作者:WAP站长网
  • 本文链接: https://wapzz.net/post-18966.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.7W+
9
1
2
WAP站长官方

Llama-2 vs. Llama-3:利用微型基准测试(井字游戏)评估大模型

上一篇

AI绘画 | AI绘画提示词的书写规范

下一篇
  • 复制图片
按住ctrl可打开默认菜单