Stable Diffusion AI绘画超详细基础使用指南(1)

来源:网络   作者:热心网友   发布时间:2023-04-11    浏览次数:2563

一、AI 绘画工具的选择与运用


1. 工作场景下 AI 绘画工具的选择

目前文生图的主流 AI 绘画平台主要有三种:Midjourney、Stable Diffusion、DALL·E。如果要在实际工作场景中应用,我更推荐 Stable Diffusion。


20230411_092350_000 (复制)20230411_092350_000.jpg


通过对比,Stable Diffusion 在数据安全性(可本地部署)、可扩展性(成熟插件多)、风格丰富度(众多模型可供下载,也可以训练自有风格模型)、费用版权(开源免费、可商用)等方面更适合我们的工作场景。


20230411_092350_001 (复制)20230411_092350_001.jpg


那么如何在实际工作中应用 Stable Diffusion 进行 AI 绘画?


要在实际工作中应用 AI 绘画,需要解决两个关键问题,分别是:图像的精准控制和图像的风格控制。

20230411_092350_002 (复制)20230411_092350_002.jpg


2. 图像精准控制


图像精准控制推荐使用 Stable Diffusion 的 ControlNet 插件。在 ControlNet 出现之前,AI 绘画更像开盲盒,在图像生成前,你永远都不知道它会是一张怎样的图。ControlNet 的出现,真正意义上让 AI 绘画上升到生产力级别。简单来说 ControlNet 它可以精准控制 AI 图像的生成。


20230411_092350_003 (复制)20230411_092350_003.jpg


ControlNet 主要有 8 个应用模型:OpenPose、Canny、HED、Scribble、Mlsd、Seg、Normal Map、Depth。以下做简要介绍:


OpenPose 姿势识别


通过姿势识别,达到精准控制人体动作。除了生成单人的姿势,它还可以生成多人的姿势,此外还有手部骨骼模型,解决手部绘图不精准问题。以下图为例:左侧为参考图像,经 OpenPose 精准识别后,得出中间的骨骼姿势,再用文生图功能,描述主体内容、场景细节和画风后,就能得到一张同样姿势,但风格完全不同的图。


这是一篇超详细的AI 绘画神器Stable Diffusion基础使用手册-5.jpg


Canny 边缘检测


Canny 模型可以根据边缘检测,从原始图片中提取线稿,再根据提示词,来生成同样构图的画面,也可以用来给线稿上色。


AI 绘画神器Stable Diffusion基础使用手册 (6).jpg


HED 边缘检测


跟 Canny 类似,但自由发挥程度更高。HED 边界保留了输入图像中的细节,绘制的人物明暗对比明显,轮廓感更强,适合在保持原来构图的基础上对画面风格进行改变时使用。


AI 绘画神器Stable Diffusion基础使用手册 (7).jpg


Scribble 黑白稿提取


涂鸦成图,比 HED 和 Canny 的自由发挥程度更高,也可以用于对手绘线稿进行着色处理。


AI 绘画神器Stable Diffusion基础使用手册 (8).jpg


Mlsd 直线检测


通过分析图片的线条结构和几何形状来构建出建筑外框,适合建筑设计的使用。


AI 绘画神器Stable Diffusion基础使用手册 (9).jpg


Seg 区块标注


通过对原图内容进行语义分割,可以区分画面色块,适用于大场景的画风更改。


AI 绘画神器Stable Diffusion基础使用手册 (10).jpg


Normal Map 法线贴图


适用于三维立体图,通过提取用户输入图片中的 3D 物体的法线向量,以法线为参考绘制出一副新图,此图与原图的光影效果完全相同。


AI 绘画神器Stable Diffusion基础使用手册 (11).jpg


Depth 深度检测


通过提取原始图片中的深度信息,可以生成具有同样深度结构的图。还可以通过 3D 建模软件直接搭建出一个简单的场景,再用 Depth 模型渲染出图。


AI 绘画神器Stable Diffusion基础使用手册 (12).jpg


ControlNet 还有项关键技术是可以开启多个 ControlNet 的组合使用,对图像进行多条件控制。例如:你想对一张图像的背景和人物姿态分别进行控制,那我们可以配置 2 个 ControlNet,第 1 个 ControlNet 使用 Depth 模型对背景进行结构提取并重新风格化,第 2 个 ControlNet 使用 OpenPose 模型对人物进行姿态控制。此外在保持 Seed 种子数相同的情况下,固定出画面结构和风格,然后定义人物不同姿态,渲染后进行多帧图像拼接,就能生成一段动画。


以上通过 ControlNet 的 8 个主要模型,我们解决了图像结构的控制问题。接下来就是对图像风格进行控制。


3. 图像风格控制


Stable Diffusion 实现图像风格化的途径主要有以下几种:Artist 艺术家风格、Checkpoint 预训练大模型、LoRA 微调模型、Textual Inversion 文本反转模型。


AI 绘画神器Stable Diffusion基础使用手册 (13).jpg


Artist 艺术家风格


主要通过画作种类 Tag(如:oil painting、ink painting、comic、illustration),画家/画风 Tag(如:Hayao Miyazaki、Cyberpunk)等控制图像风格。网上也有比较多的这类风格介绍,如:


https://promptomania.com


https://www.urania.ai/top-sd-artists


但需要注意的是,使用艺术家未经允许的风格进行商用,会存在侵权问题。


AI 绘画神器Stable Diffusion基础使用手册 (14).jpg



12345共5页
联盟广告
×

感觉还不错,那就赞助一下吧!您的鼓励就是我们坚持的动力!

打赏说明:您的赞助我们将用于购买网络带宽和优质设计资源,提升用户体验!

相关推荐

http://www.shejixf.com/shejijiaocheng/shouhui/9627.html
×

一键快速登录后才能下载本站资源

新会员登录即可获取5学币奖励,超爽下载!

×

一键快速登录后才能下载本站资源

新会员登录即可获取5学币奖励,超爽下载!

×

充值学币 立即开通