Stable Diffusion web UI 安装教程

Stable Diffusion web UI 安装教程

    正在检查是否收录...

Stable Diffusion web UI 安装教程

欢迎来到猫说AI,wx搜索,猫说AI接入了最新版Chatgpt供大家免费使用。

注意:这是ubuntu20.04安装步骤!

conda创建python虚拟环境
conda create -n stable python=3.10 -y conda activate stable 
clone项目并下载依赖
git clone https://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git cd stable-diffusion-webui 

3.安装依赖

pip install -r requirements_versions.txt 

修改lanch.py

注意由于网络限制,需要将所有github的地址前面都加上代理前缀,请自行修改

修改如下:

def prepare_environment(): global skip_install torch_command = os.environ.get('TORCH_COMMAND', "pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117") requirements_file = os.environ.get('REQS_FILE', "requirements_versions.txt") xformers_package = os.environ.get('XFORMERS_PACKAGE', 'xformers==0.0.16rc425') gfpgan_package = os.environ.get('GFPGAN_PACKAGE', "git+https://ghproxy.com/https://github.com/TencentARC/GFPGAN.git@8d2447a2d918f8eba5a4a01463fd48e45126a379") clip_package = os.environ.get('CLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/openai/CLIP.git@d50d76daa670286dd6cacf3bcd80b5e4823fc8e1") openclip_package = os.environ.get('OPENCLIP_PACKAGE', "git+https://ghproxy.com/https://github.com/mlfoundations/open_clip.git@bb6e834e9c70d9c27d0dc3ecedeebeaeb1ffad6b") stable_diffusion_repo = os.environ.get('STABLE_DIFFUSION_REPO', "https://ghproxy.com/https://github.com/Stability-AI/stablediffusion.git") taming_transformers_repo = os.environ.get('TAMING_TRANSFORMERS_REPO', "https://ghproxy.com/https://github.com/CompVis/taming-transformers.git") k_diffusion_repo = os.environ.get('K_DIFFUSION_REPO', 'https://ghproxy.com/https://github.com/crowsonkb/k-diffusion.git') codeformer_repo = os.environ.get('CODEFORMER_REPO', 'https://ghproxy.com/https://github.com/sczhou/CodeFormer.git') blip_repo = os.environ.get('BLIP_REPO', 'https://ghproxy.com/https://github.com/salesforce/BLIP.git') 

可以先运行起来,会自动安装依赖

python launch.py --share 

手动安装剩余部分依赖

pip install torch==1.13.1+cu117 torchvision==0.14.1+cu117 --extra-index-url https://download.pytorch.org/whl/cu117 

4.安装xformers(可选)

git clone https://ghproxy.com/https://github.com/facebookresearch/xformers/ cd xformers/ 
git submodule update --init --recursive 接下来可能会失败,执行如下步骤后重新执行就成功了 cd .git/ vi config 替换所有的github链接为加速链接 https://ghproxy.com/ 然后删除third_party目录下的两个未下载完成的子项目 cd .. cd third_party rm -rf cutlass rm -rf flash-attention cd .. git submodule update --init --recursive # 强制使用CUDA,不开启可能会导致xformers未和CUDA一起编译 export FORCE_CUDA="1" # 进入https://developer.nvidia.com/cuda-gpus#compute # 设置所用显卡对应的Compute Capability,3090和A5000都是8.6 export TORCH_CUDA_ARCH_LIST=7.0 # PATH环境变量中追加cuda目录,确保编译时能识别镜像预置的cuda11.6 export PATH=$PATH:/usr/local/cuda # 确保gcc编译时能够识别cuda的头文件 export CPATH=/usr/local/cuda/targets/x86_64-linux/include pip install -r requirements.txt pip install -e . 

注意: xformers编译安装过程时间比较久,如果不想一直等待可以用screen去后台执行。

创建窗口

screen -S stable 

查询窗口id

screen -r 

进入窗口

screen -r pid 

激活conda虚拟环境,并在后台安装:

conda activate stable pip install -e . 

接下来让它自己去编译安装吧,我们按

ctrl + a 然后按 d 来退出当前窗口

要想再连接输入

screen -r 即可。

启动web UI

python -u launch.py --no-half --port 8850 --listen --xformers --share nohup后台启动: nohup python -u launch.py --no-half --share --xformers > log.log 2>&1 & 

最后启动完如下图所示:

大功告成!

5.安装 Controlnet插件

打开stable-diffusion,点击最右侧的extension,接着点击available,再点击“Load from:”按钮。

在此之后,您将看到一系列可用插件的列表。

需要注意的是,有时候在点击"load from"按钮后,页面可能会因连接失败而出现错误提示。这时,请不要着急,可以刷新页面并检查网络设置(例如开启或切换内外网),然后再次尝试点击"load from"按钮,多尝试几次即可。

接下来,您可以使用Ctrl/command + F快捷键,在搜索框中输入“controlnet”,找到ControlNet插件,并单击右侧的"install"按钮以安装该插件。

安装完成后,插件面板会显示 intalled into xxxx,说明已经安装好了。

如果在available页面无法下载ControlNet插件,用户可以尝试通过Install from URL页面手动安装。插件地址为

https://github.com/Mikubill/sd-webui-controlnet 

或者,用户可以先将整个包通过git clone或者GitHub网页下载,在stable-diffusion-webui > extensions文件夹下放置下载的包即可。

完成插件安装后,请确保在installed页面点击“apply and restart(应用并重启)”,以使更改生效。

接下来,安装Openpose。在切换到installed页面之前,我们需要先安装一个名为Openpose Editor的插件,以便后续自定义POSE(姿势)。

使用搜索框查找"openpose",找到相应的插件,并单击右侧的"install"按钮以安装该插件。

等待安装,直到显示“Installed into … openpose-editor. Use Installed tab to restart.”代表安装完成。

这时候,点击installed 页面,你会发现,刚刚安装的两个插件都已经显示在上面了。这时候点击apply and restart ui(应用并重启软件),接着等待网页自动刷新,如果显示无法连接,那么手动刷新下。

如果在available页面无法进行插件安装,用户可以尝试通过install from url页面安装插件,或者下载代码包并将其复制到stable-diffusion-webui > extensions目录下。插件地址为

https://github.com/fkunn1326/openpose-editor 

完成插件安装后,请确保在installed页面点击“apply and restart(应用并重启)”,以使更改生效。

接下来,打开ControlNet编辑器。刷新页面后,在stable的首页上方将看到一个名为"ControlNet"的长条,单击该条后面的三角形按钮即可展开相关选项。

展开界面如下图。

5.下载模型。

ControlNet是一种需要专门模型支持的技术,只有使用了相应的模型才能实现相关功能,如绘制指导图等。

要开始使用ControlNet,我们需要下载相应的模型文件。您可以在以下链接找到模型文件:

https://huggingface.co/lllyasviel/ControlNet/tree/main/models 

然而,这里有很多不同版本的模型可供选择。针对不同的使用场景和需求,选择不同版本的模型可能会产生不同的效果。因此,选择哪种模型也是一个需要仔细考虑的问题。

为了更好地选择适合自己的模型,建议用户仔细阅读官方说明或文档,并根据自己的实际需求和硬件配置来选择最合适的模型版本。

当面对硬盘空间有限的情况时,我们可以先选择下载自己需要的模型文件,如Canny、Openpose和Scribble。其中,Canny可用于边缘检测等通用场景,Openpose则是专用于姿势控制的模型,而Scribble则适合随手涂鸦并生成精美画面,具备很高的玩耍性质。

尽管每个模型都有各自的特点和使用场景,但如果拥有更大的硬盘空间,建议全量下载所有模型以获取更多体验乐趣。

下载完成后,将相应的.pth文件放入stable-diffusion-webui > models > ControlNet文件夹下即可开始使用ControlNet。

值得注意的是,ControlNet依赖xformers算法框架及Nvidia显卡,因此在其他系统上可能会遇到效果达不到预期或速度较慢等问题。

另外,关于ControlNet的具体使用方法,由于其较为复杂,建议用户仔细阅读官方文档和相关使用说明,并进行一定的实践积累后再进行尝试。后面会分享关于ControlNet的使用技巧和案例。

Control Net模型文件我已经放到网盘中,有需要的小伙伴可关注wx 公众号

猫说AI

公众号还接入了最新版Chatgpt哦!

后台留言获取!

猫说AI

gitgithubcontrolnetdiffusionproxywebopenposewebuicliclippythoncloneurleditortransformercodeappgantransformersshare
  • 本文作者:李琛
  • 本文链接: https://wapzz.net/post-9191.html
  • 版权声明:本博客所有文章除特别声明外,均默认采用 CC BY-NC-SA 4.0 许可协议。
本站部分内容来源于网络转载,仅供学习交流使用。如涉及版权问题,请及时联系我们,我们将第一时间处理。
文章很赞!支持一下吧 还没有人为TA充电
为TA充电
还没有人为TA充电
0
  • 支付宝打赏
    支付宝扫一扫
  • 微信打赏
    微信扫一扫
感谢支持
文章很赞!支持一下吧
关于作者
2.3W+
5
0
1
WAP站长官方

人工智能在设计中的应用:挑战和机遇是什么?

上一篇

pboot采集插件:提升网站内容采集效率的利器

下一篇
  • 复制图片
按住ctrl可打开默认菜单