avatar

ShīnChvën ✨

Effective Accelerationism

Powered by Druid

在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像

Stable Diffusion XL Official Samples

Stability AI 最近推出了Stable Diffusion XL 1.0,这是一款突破性的文本到图像生成模型。该模型能够生成任何风格的高质量、逼真的图像,并能处理对图像模型来说通常具有挑战性的复杂概念。通过简单的提示,SDXL 1.0在各种平台上提供高质量的输出,开启了数字艺术和内容创作的新时代。

您可以在 Clipdrop 上免费在线访问 Stable Diffusion XL,或者从其 Hugging Face 仓库 下载模型进行本地使用。

在这篇文章中,我将指导您如何使用 Stable Diffusion web UI 运行 SDXL 1.0。

获取 Stable Diffusion XL 模型

以下是模型的直接链接(可能会更改):

理解模型和流程

在开始之前,重要的是要理解 SDXL 1.0 的工作流程。以下是官方的描述:

pipeline

SDXL 采用了一个用于潜在扩散的专家集合流程。首先,Base 模型生成(噪声)潜在变量,然后使用专门的模型进行最后的去噪步骤。Base 模型也可以作为一个独立的模块使用。

另外,可以使用两阶段流程。首先,基础模型生成所需输出大小的潜在变量。然后,专门的高分辨率模型应用一种叫做 SDEdit 的技术到第一步生成的潜在变量上,使用相同的提示。这种技术比第一种稍慢,因为它需要更多的函数评估。

源代码可以在 Stability AI 的 GitHub 上找到。

使用 Stable Diffusion WebUI 运行 SDXL 1.0

Stable Diffusion web UI 是一个基于 Gradio 库的强大的浏览器界面,用于 Stable Diffusion。最新版本 1.5+ 支持 Stable Diffusion XL 1.0。

如果您是 Stable Diffusion web UI 的新用户,可以按照官方指南安装并运行它。如果您已经安装了它,只需使用 git pull 将其更新到最新版本。

接下来,将下载的 Base 模型和 Refiner 模型放入 Stable Diffusion web UI 的 models/Stable-diffusion 文件夹中,并将下载的偏移模型放入 models/Lora 文件夹中。

现在您已经准备好了。

在 Stable Diffusion Web UI 中使用 Stable Diffusion XL 1.0 生成图像

根据官方的描述,最好先用基础模型生成图像,然后用 Refiner 模型进行细化。

base

在 txt2img 模式下生成基础图像:

  • 将检查点设置为 sd_xl_base_1.0.safetensors
  • 在提示框中写一个提示,并附加 Offset LoRA 模型:<lora:offset_0.2:0.3>
  • 将大小设置为 1024x1024。这是推荐的大小,因为 SDXL 1.0 是在比前一版本更高质量的数据上进行训练的。
  • 生成图像

base

一旦你有了基础图像,你可以用 Refiner 模型来细化它:

  • 将基础图像发送到 img2img 模式
  • 将检查点设置为 sd_xl_refiner_1.0.safetensors
  • 从提示中移除 Offset Lora 模型
  • 如果你希望结果尽可能与基础图像相同,将去噪权重设置为低于 0.2
  • 可选的,你可以在 img2img 模式的 Script 部分启用 SD Upscale 进一步细化和提高分辨率。

恭喜!你刚刚在 Stable Diffusion web UI 中使用 Stable Diffusion XL 1.0 生成了一张图像。