心心念的Refiner来了!Stable Diffusion WebUI 1.6.0 发布

7,136 阅读4分钟

本周四 Stable Diffusion WebUI 发布了 1.6.0 版本,趁着周末时间比较充裕,我把自己的 AutoDL 镜像也升级到了最新版本,并实际体验了下相关功能,有许多惊喜,特别分享给大家!

使用方法

官方仓库地址:

github.com/AUTOMATIC11…i

  • 全新安装:按照官方仓库中的说明安装,因为需要下载的东西比较多,可能时间比较长。
  • 升级安装:在 webui 目录下使用 git pull 拉取最新版的代码,重新启动即可。
  • 使用镜像:云平台上一般有很多打包好的镜像,AutoDL上可以使用我发布的:www.codewithgpu.com/i/AUTOMATIC…

我之前写了两篇关于本地和云环境安装 Stable Diffusion WebUI 的文章,有兴趣的可以看看:

Windows本地安装SD WebUI秋叶整合包

AutoDL云环境部署SD WebUI

惊喜分享

下面分享几个我个人感觉比较出彩的地方。

支持Refiner

了解过 SDXL 的同学可能已经知道,SDXL 采用了一种两步走的生图方式,先用1个基础模型生成一张看起来差不多的图片,然后再使用一个精修模型把它打磨的更漂亮。示意图如下:

在 WebUI 的 1.5.x 版本中,虽然已经支持了 SDXL 模型,但是这个生图的模式是被割裂的,我们首先需要在文生图中使用基础模型生成一张图片,然后再把这张图片发送到图生图生使用精修模型进行优化。过程比较繁琐低效。

现在 1.6.0 终于把这两步集成到一次生图的过程中了。

在 Stable Diffusion的生图参数中,新增了一个 Refiner 的模块,就在之前的“高清修复”旁边。默认情况下,“Refiner”和“高清修复”都被折叠了起来,也就是不使用它们。

展开 Refiner,我们可以看到两个选项:

  • 前边是要使用的精修大模型,此处可以选择任何一个SD大模型,不仅仅是SDXL模型,SD1.5模型同样可以干这件事。
  • 后边是精修开始的步数百分比,上边采样步数填写的是20,精修模型就从 20*0.8=16 之后,也就是第17步,开始参与绘制图片。

更快更好的采样器

一下子新增了一堆采样器,相比之前的前辈,它们的采样速度更快,采样质量更高。

Restart, DPM++ 2M SDE Exponential, DPM++ 2M SDE Heun, DPM++ 2M SDE Heun Karras, DPM++ 2M SDE Heun Exponential, DPM++ 3M SDE, DPM++ 3M SDE Karras, DPM++ 3M SDE Exponential

内存占用优化

相比之前的 WebUI 1.5 版本,SDXL 模型使用的内存大幅下降,现在 A5000 已经能够稳定的跑图了,不信的可以去试试,哈哈。

内存的优化不仅针对 SDXL 模型,比如“图生图”的批量处理等处,有兴趣的可以去 github 上看看发布说明。

小模型加载位置切换

这个我感觉方便了很多,之前要使用 Lora 模型时,先得通过一个按钮打开小模型的面板,然后再切换到 Lora 的页签,然后再选择要使用的 Lora。这个小模型的选择面板还挺占用空间的,不需要了还得再点击小按钮把小模型的面板隐藏起来。

现在只需要在主页面上点击 Lora 页签,就可以直接切换了。选择完了,再点击 Generation 页签就可以切换回去。这个确实很方便。

图片快捷操作

原来丑陋的大按钮,换成了精巧的小图标。这个好不好,可能就见仁见智了,有的同学可能会觉得不直观,对于新同学也可能搞不清楚每个按钮都是做什么的,需要熟悉一下才行。

区域可拖动

在“文生图”和“图生图”界面中,增加了一个可以水平拖动的分割线。如果你感觉有一边太拥挤了,就可以把分割线拖到另一边。

资源下载

本文使用的模型、插件,生成的图片,都已经上传到了我整理的SD绘画资源中,后续也会持续更新,如有需要,请/关/注/公/众/号:萤火遛AI(yinghuo6ai),发消息:SD,即可获取下载地址。

如果你还没有使用过Stable Diffusion WebUI,可以先看这几篇文章,了解下如何使用:

手把手教你在本机安装Stable Diffusion秋叶整合包

手把手教你在云环境炼丹(部署Stable Diffusion WebUI)

SDXL 1.0出图效果直逼Midjourney!手把手教你快速体验!


好了,以上就是本文的主要内容。如有问题欢迎留言沟通交流。