在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像

2023::07::29
2 min
AUTHOR:Z. SHINCHVEN

Stable Diffusion XL Official Samples

Stability AI 最近推出了Stable Diffusion XL 1.0,这是一款突破性的文本到图像生成模型。该模型能够生成任何风格的高质量、逼真的图像,并能处理对图像模型来说通常具有挑战性的复杂概念。通过简单的提示,SDXL 1.0在各种平台上提供高质量的输出,开启了数字艺术和内容创作的新时代。

您可以在 Clipdrop 上免费在线访问 Stable Diffusion XL,或者从其 Hugging Face 仓库 下载模型进行本地使用。

在这篇文章中,我将指导您如何使用 Stable Diffusion web UI 运行 SDXL 1.0。

获取 Stable Diffusion XL 模型

以下是模型的直接链接(可能会更改):

理解模型和流程

在开始之前,重要的是要理解 SDXL 1.0 的工作流程。以下是官方的描述:

pipeline

SDXL 采用了一个用于潜在扩散的专家集合流程。首先,Base 模型生成(噪声)潜在变量,然后使用专门的模型进行最后的去噪步骤。Base 模型也可以作为一个独立的模块使用。

另外,可以使用两阶段流程。首先,基础模型生成所需输出大小的潜在变量。然后,专门的高分辨率模型应用一种叫做 SDEdit 的技术到第一步生成的潜在变量上,使用相同的提示。这种技术比第一种稍慢,因为它需要更多的函数评估。

源代码可以在 Stability AI 的 GitHub 上找到。

使用 Stable Diffusion WebUI 运行 SDXL 1.0

Stable Diffusion web UI 是一个基于 Gradio 库的强大的浏览器界面,用于 Stable Diffusion。最新版本 1.5+ 支持 Stable Diffusion XL 1.0。

如果您是 Stable Diffusion web UI 的新用户,可以按照官方指南安装并运行它。如果您已经安装了它,只需使用 git pull 将其更新到最新版本。

接下来,将下载的 Base 模型和 Refiner 模型放入 Stable Diffusion web UI 的 models/Stable-diffusion 文件夹中,并将下载的偏移模型放入 models/Lora 文件夹中。

现在您已经准备好了。

在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像

根据官方的描述,最好先用基础模型生成图像,然后用 Refiner 模型进行细化。

base

在 txt2img 模式下生成基础图像:

  • 将检查点设置为 sd_xl_base_1.0.safetensors
  • 在提示框中写一个提示,并附加 Offset LoRA 模型:<lora:offset_0.2:0.3>
  • 将大小设置为 1024x1024。这是推荐的大小,因为 SDXL 1.0 是在比前一版本更高质量的数据上进行训练的。
  • 生成图像

base

一旦你有了基础图像,你可以用 Refiner 模型来细化它:

  • 将基础图像发送到 img2img 模式
  • 将检查点设置为 sd_xl_refiner_1.0.safetensors
  • 从提示中移除 Offset Lora 模型
  • 如果你希望结果尽可能与基础图像相同,将去噪权重设置为低于 0.2
  • 可选的,你可以在 img2img 模式的 Script 部分启用 SD Upscale 进一步细化和提高分辨率。

恭喜!你刚刚在 Stable Diffusion web UI 中使用 Stable Diffusion XL 1.0 生成了一张图像。

Share Node: