市场上有许多应用程序可用于AI绘画,例如Dall-E,Midjourney,Novelai等。其中大多数依赖云服务器,其中一些也需要支付会员费来购买更多图片。 2022年8月,一个名为“稳定扩散”的应用程序通过算法迭代将AI绘画的细度提升到了新的水平,并且可以在几秒钟内完成输出,并且还可以在计算机上使用“平民”图形卡运行。
通过稳定的扩散,可以绘制各种样式的作品,例如动画样式,插图,中国风格的墨水绘画,3D建模,甚至是照片级别的逼真图像。借助诸如Lora和ControlNet之类的衍生功能,您还可以准确地控制艺术风格,角色细节,姿势,动作,构图等。更重要的是,它是完全开源的,这意味着您可以在计算机上部署整个程序,并使用它来绘制图片和绘制图片和绘画是完全免费的,并且是无限的!市场上大多数商业级AI绘画应用程序都是基于SD开发的。
尽管稳定的扩散非常实惠,但仍具有某些配置要求。它需要一张具有足够性能的独立图形卡,以提供绘图的计算能力。实际上,“跑步”和“快乐地玩耍”是两种不同的经历。计算能力的差异将极大地影响在AI绘画中绘画时绘图生产的效率。正是由于这种情况,许多学生错过了由于个人计算机的紧急配置而经历稳定扩散的机会。等一下,您知道JD Cloud吗? JD Cloud GPU Cloud主机是一种弹性计算服务,可提供GPU计算能力。它具有超强的平行计算能力,可在深度学习,科学计算,图形和图像处理,视频编码和编解码器等中广泛使用,为您提供指尖内的计算能力,从而有效地减轻了计算机压力,可以提高业务效率,并极大地扩大了扩展,可帮助您快速构建异型计算应用程序。
经过一系列探索,我为您汇总了一组Nanny Collection教程,这些教程为零,并且非常易于使用JD Cloud GPU gpu Cloud主机来部署和安装稳定的扩散WebUI及相关工具和插件。请检查。
一、创建GPU主机实例
1.1 创建GPU云主机
JD Cloud GPU云主机的标准配置包括Tesla P40 24G图形卡,12核48G,并且运行稳定扩散的经验非常好。配置建议如下:
配置
推荐
阐明
系统
Ubuntu 20.04 64位
规格
GPU标准P.N -P.N1P40.3XLARGE
12核48G NVIDIA TESLA P40 24G图形记忆
系统磁盘
100克
系统磁盘建议100克
带宽
5m
推荐5m
1.2 创建安全组并绑定
首先在左菜单[安全组]中创建一个安全组,然后在[Inbound规则]和[出站规则]中分别添加和打开端口7860、7861、8080和8888。在
然后在实例详细信息中,单击[安全组] – [绑定安全组]以绑定您刚创建的安全组。
二、环境安装
2.1 安装GPU驱动
在NVIDIA的官方网站中,根据图形卡型号,操作系统,CUDA等查询驱动程序版本。官方网站QUERY QUERY QUERY LINK 3https://WWW.NVIDIA.com/download/index.aspx?如果未安装CUDA,则可以先选择一个版本,然后以后安装CUDA。
单击搜索
如上图所示,适当的版本为510。然后,您可以使用APT安装相应的驱动程序版本,该版本更方便地使用APT安装。
安装510版驱动程序APT安装NVIDIA-DRIVER-510查看驱动程序信息NVIDIA-SMI如果安装成功,则可以显示以下提示信息。
2.2 安装CUDA
访问NVIDIA开发人员网站,并首先选择CUDA版本(该版本必须对应于GPU驱动程序在2.1中支持的CUDA版本),然后根据操作系统选择相应的CUDA安装命令。访问链接https://Developer.nvidia.com/cuda-toolkit-archive
如果上面安装,请确定与所选驱动程序相对应的CUDA版本为11.6。根据安装命令进行安装。以下命令适用于Ubuntu 20.04 x86_64,GPU驱动程序版本510
wget https://Developer.download.nvidia.com/compute/cuda/repos/repos/repos/repuntu2004/x86_64/cuda-ubuntu2004.pinsudo mv cuda-ubuntu2004.pin/et e https://developer.download.nvidia.com/compute/cuda/11.6.2/local_installers/cuda-repo-ubuntu2004-11-6-6-local_11.6.2-510.47.03-1.03-1_amd64.debsudo dpkg-i cuda-repo-ubuntu2004-11-6-local_11.6.2-510.47.03-1_amd64.debsudo apt-apt-key add/var/var/cuda-repo-ubuntu2004-11-6-6-6-6-6-6-6-6-local/7fa2af80.pbubsudo appsudo apt-apt-get-get-get-get-get-get-get-get-get cptaipaud-get-get catpet-get cat强烈建议使用Anaconda。 Anaconda可以轻松获取软件包并管理软件包,还可以管理可以通过Python环境统一管理的分布。安装命令也非常简单:
wget https://repo.anaconda.com/archive/anaconda3-2023.03-1-linux-x86_64.shbash ./anaconda3-2023.03-13-1-1-linux-x86_64.sh
conda create -n python3.10.9 python==3.10.9conda激活python3.10.9
2.3 安装Python 3.10
首先查询Pytorch官方网站上的相应的CUDA版本。例如,在上面的第2.2章中,CUDA 11.6要求安装pytorch1.13.1
使用Conda安装,选择两种安装方法之一conda安装pytorch==1.13.1 torchvision==0.14.1 torchaudio==0.13.1 pytorch -cuda=11.6 -c pytorch -c pytorch -c nvidia torchvision==0.13.1 – extra-index-url https://Download.pytorch.org/whl/cu116
2.5 安装PyTorch
注意,首先激活Python 3.10环境:
conda激活python3.10.9,然后下载稳定的扩散- webui
git克隆https://github.com/automatic1111/stable-diffusion-webui.git
三、部署Stable Diffusion WebUI
cd到稳定的- 散至- webui目录以安装相应的依赖关系。如果有网络访问超时,失败等,请注意,国内源将在第2.3章中设置。如果再次失败,请重试几次可以完成安装。
CD稳定-Diffusion-webuipip install -R Eunctirs_versions.txtpip install -r sumplion.txt
3.1 下载stable-diffusion-webui
完成后,安装完成后,执行以下启动命令:
Python启动.py- listen-enable-Insecure-Extension-Access此步骤将下载一些常用的模型。如果遇到下载失败,请根据错误提示下载ginggingface.co的模型,然后将其放入相应的目录中。例如,下载稳定的扩散-V1-5型号。搜索并查找https://HuggingFace.co/runwayml/stable-diffusion-v1-5/tree/main
单击图中的下载按钮,然后下载v1-5-pruned-emeonly.safetensors到稳定的- 散射webuui/models/stable-diffusion目录。同样适用于其他模型。下载模型,然后再次执行启动命令。它提示它已经开始端口7860,并且可以通过IP+7860端口访问:
建议为公共网络设置访问密码,请注意,以下命令中的用户名:Password替换为用户名和密码。
python aunplion.py-listen-enable-Insecure-extension-access -gradio-auth用户名:Password上面的命令在后台不运行。如果您需要在后台运行,则可以使用NOHUP,TMUX和其他方法来实现它。
3.2 安装依赖
将模型下载到/稳定- 扩散webuui/型号/稳定- 扩散目录。该模型可以在https://civitai.com/上找到,如下图中使用的Majicmix现实模型。下载完成后,单击左上角的“刷新”按钮,然后选择刚下载的模型,输入促销和参数以生成图片。
附加上图中使用的促销和参数提示
1女孩一个24岁的女人,金发,黑暗的主题,舒缓的音调,柔和的色彩,高对比度,观看观众,对比,充满活力,充满活力,强烈,令人惊叹,在午后的阳光下被捕获,使用佳能EOS EOS R6和16-35mm捕获每个细节,并在下午的下午阳光下捕捉到所有细节和角度
(变形,扭曲,毁容,Doll:1.3),绘制不佳,解剖学不良,解剖学错误,额外的肢体,肢体缺失,浮动的肢体(突变的手和手指:1.4),脱节的肢体,突变,突变,突变,丑陋,丑陋,丑陋的,杂乱无章,柔和,铺设,杂物,铺设,铺设,铺设,铺设,3. (变形,扭曲,毁容:1.3),绘制不佳,解剖结构不良,解剖学错误,额外的肢体,缺失的肢体,浮动的肢体,其他参数
3.3 启动stable-diffusion-webui
3.4 使用stable-diffusions生成图片
使用Lora的基本插件,其他网络可用于控制CheckPoint+Lora或多个Lora型号来生成混合风格的图像,并可以设置Lora模型的重量。安装方法如下:
Open stable-diffusion-webui, click [Extensions]- [Install from URL] Enter https://ghproxy.com/https://github.com/kohya-ss/sd-webui-additional-networks.git and click [Install] to wait for installation until it is displayed in [Installed], and then directly restart stable-diffusion-webui (not reload稳定的扩散- Webui)。强烈建议通过在安装完成后重新启动稳定的扩散- Webui重新启动所有插件,这可以节省很多麻烦。最后,单击[设置] – [其他网络]输入LORA文件夹的绝对路径,例如/root/stable-diffusion-webuui/models/lora(例如,请填写您的系统路径),然后[reload ui]等待重新启动完成。
然后,您可以在[txt2img]或[img2img]中选择LORA模型,并设置要使用的权重。
四、常用相关工具与插件
作为稳定扩散的必备插件,ControlNet允许用户精心控制生成的图像以获得更好的视觉效果。 ControlNet将AI绘画的可控性变成了定性突变,从而使Agics可以真正投入生产和使用中。打开稳定- 扩散- webui,单击[扩展] – [从URL安装]输入3https://ghproxy.com/3https://github.com/mikubill/mikubill/sd-webui-controlnet.git.git,然后单击[安装]以等待安装,直到在[安装]中显示出[安装],然后直接启动star starbable-nest-unife-diff-diff-diff-diff-diff-diff-diff-diffu(使用命令。由于ControlNet使用了许多模型,因此默认情况下将在重新启动过程中下载。如果下载失败或失败,则需要手动将其下载到ControlNet目录。访问huggingface.co查找ControlNet的地址:https://HuggingFace.co/lllyasviel/controlnet-v1-1/tree/main/main
手动将上面的型号文件下载到稳定的扩散- Webui/Extensions/sd-webui-controlnet/型号目录,并查看下载的ControlNet模型:
下载完成后,重新启动稳定- 扩散- Webui,可以在[txt2img]或[img2img]中使用。
4.1 安装LoRa插件Additional Networks
Jupyter Notebook是一个基于Web的交互式环境,可用于编辑和运行Python代码以视觉上查看运行结果。同时,它提供基本的文件树操作功能等。如果在第2.4章中安装了Anaconda,请使用以下命令直接运行笔记本
jupyter笔记本- allow-root -notebookapp.toke.token=\’设置您的令牌\’访问IP+8888端口,您可以开始使用笔记本
4.2 安装ControlNet
KOHYA_SS是用于训练稳定扩散模型的公认可视化工具。它特别适合Windows平台支持。尝试直接在Linux上使用它后,您将遇到各种环境问题。为了避免这些问题,建议使用Docker安装它。首先根据Docker官方文件安装Docker。 Ubuntu安装Docker文档:https://docs.docker.com/engine/install/ubuntu/由于docker容器中需要GPU资源,NVIDIA容器工具包也需要安装
sudo apt-get update \\ sudo apt-get install -y nvidia-container-toolkit-base检查安装是否成功nvidia-ctk- version-version和下载kohya_ss:
git克隆https://github.com/bmaltais/kohya_ss.git如下图所示。将KOHYA_SS/DOCKER-COMPOSE.YAML端口修改为0.0.0.0.0.0.0:7861:7860(地图映射kohya_ss的7860港口的7861端口到主机的7861端口,因为7860将被7860占用,因为7860将被稳定的diffusion webufusion-poxs-poxs-pormand-pormand-wory-poarns-wory-operand wory-operns-wory-selecks-witer-selecks tosexs-selects-selects-selects-selects组成xxxx-头部\’,请注意,xxxx被您需要设置的帐户密码替换
然后执行
Docker组成的构建第一个执行需要构建Docker构成运行-Service-Service-ports kohya-ss-gui。模型文件将从huggingface.co下载。如果下载失败,您可以尝试将其手动下载到目录kohya_ss/.cache/user/huggingface/hubgingface/hub/models-openai-clip-vit-vit-large-patch14/snapshots/snapshots/8D052A0F05F05EF05EFBBAEFBC9E8786BA291CFDFDF93E3E5BFF。请将最后一个哈希值更改为相应的版本。下载地址https://HuggingFace.co/openai/clip-vit-large-patch14/tree/main,请下载所有文件
下载完成后,然后访问端口+7861,您可以开始使用KOHYA_SS训练该模型。
用户评论
蝶恋花╮
我去过稳定散步官网上看了一下,他们提供的教程好像有点不详细啊
有13位网友表示赞同!
心亡则人忘
之前听说过 Stable Diffusion,一直想试试但不知道怎么下手,这份教程看起来很靠谱!
有9位网友表示赞同!
陌潇潇
部署的话,我估计对电脑配置要求蛮高的吧?我的老电脑能用吗?
有18位网友表示赞同!
桃洛憬
保姆级教程?太好了,这样我这个小白也能跟着学!
有16位网友表示赞同!
心安i
感觉这篇文章写的应该挺详细的,有详细的部署步骤,还有注意事项的吗?
有20位网友表示赞同!
你的眸中有星辰
最近想学习一下深度学习,这个 Stable Diffusion 看起来是个不错入门项目吧!
有14位网友表示赞同!
命该如此
稳定散步是什么软件啊?生成图片的吗?好像听过名字但不太了解
有20位网友表示赞同!
打个酱油卖个萌
感觉部署自己的模型肯定比直接用在线工具好用多了!
有7位网友表示赞同!
_心抽搐到严重畸形っ°
这篇文章写的真细致,甚至有针对不同场景的部署方案?
有14位网友表示赞同!
生命一旅程
炼丹师之路啊,我决定开启这个旅程了!
有11位网友表示赞同!
殃樾晨
稳定散步能生成多种类型的图片吗?比如漫画、照片、概念图等等?
有12位网友表示赞同!
不相忘
教程里有没有提供一些入门级的训练模型模板?
有11位网友表示赞同!
北染陌人
部署完成之后,能不能直接使用图形界面进行操作啊?
有18位网友表示赞同!
喜欢梅西
之前试过别的图片生成软件,感觉稳定散步的效果要好很多?
有8位网友表示赞同!
封心锁爱
我最近在学习Python,这个教程可以用到的python库都比较入门吗?
有7位网友表示赞同!
醉红颜
想问问这篇文章的作者是谁呢?可以去联系看看吗?
有20位网友表示赞同!
我一个人
部署Stable Diffusion需要哪些具体硬件条件呢?
有17位网友表示赞同!
孤自凉丶
这种类型的教程平时能用在哪里?有没有其他应用场景?
有16位网友表示赞同!
在哪跌倒こ就在哪躺下
稳定散步这个名字听起来很符合它的功能啊!
有17位网友表示赞同!
日久见人心
期待看到更多关于 Stable Diffusion 的相关资料,比如学习视频或者案例分享!
有9位网友表示赞同!