Update markdown/unit3/README_CN.md

#3
Files changed (1) hide show
  1. markdown/unit3/README_CN.md +13 -12
markdown/unit3/README_CN.md CHANGED
@@ -1,6 +1,6 @@
1
  # 单元3:Stable Diffusion
2
 
3
- 欢迎来到 Hugging Face 扩散模型课程的第三单元!在这一单元,你将会遇见一个非常强大的扩散模型,名叫 Stable Diffusion(SD),我们将探索它到底能干点什么。
4
 
5
  ## 开始这一单元 :rocket:
6
 
@@ -20,35 +20,36 @@
20
  ![SD example images](sd_demo_images.jpg)<br>
21
  _示例图片,由 Stable Diffusion 生成_
22
 
23
- Stable Diffusion 是一个强大的文本条件隐式扩散模型(text-conditioned latent diffusion model)。不要担心,我们马上就会解释这些名词。它根据文字描述生成令人惊艳的图片的能力震惊了整个互联网。在本单元,我们将会一探 SD 的工作原理并了解一下它还能搞出什么其它花招。
24
 
25
  ## 隐式扩散(Latent Diffusion)
26
 
27
- 当图片尺寸变大时,需要的计算能力也随之增加。这种现象在自注意力机制(self-attention)这种操作的影响下尤为突出,因为操作数随着输入量的增大呈平方地增加。一个 128px 的正方形图片有着四倍于 64px 正方形图片的像素数量,所以在自注意力层就需要16倍(4<sup>2</sup>)的内存和计算量。这是任何需要生成高分辨率图片的人都会遇到的问题。
28
 
29
  ![latent diffusion diagram](https://github.com/CompVis/latent-diffusion/raw/main/assets/modelfigure.png)<br>
30
  _Diagram from the [Latent Diffusion paper](http://arxiv.org/abs/2112.10752)_
31
 
32
- 隐式扩散致力于克服这一难题,它使用一个独立的模型 Variational Auto-Encoder(VAE)**压缩**图片到一个更小的空间维度。这背后的原理是,图片通场都包含了大量的冗余信息 —— 给定足够的训练数据,一个 VAE 可以学会产出一个比输入图片小得多的表征,并把这个**隐式**表征重建回原图片,同时保留较高的保真度。SD 模型中的 VAE 接收一个三通道图片输入,生成出一个四通道的隐式表征,同时每一个空间维度上都减少为原来的八分之一。比如,一个 512px 的正方形图片将会被压缩到一个 4×64×64 的隐式表征上。
33
 
34
- 通过把扩散过程引用到这些**隐式表征**而不是完整图像上,我们可以从中得到很多好处(更低的内存使用、更少的 UNet 层数、更快的生成速度...)。同时我们仍能把结果使用 VAE 中的解码器解码到高分辨率图片上来查看最终结果。这一创新点极大地降低了训练和运行这些模型的成本。
35
 
36
  ## 以文本为生成条件
37
 
38
- 在第二单元,我们展示了如何将额外信息输入到 UNet,让我们对生成的图片有了额外的控制。我们把这种方法叫做条件生成。给定一个带噪图片,我们让模型**基于额外的线索**(比如类别标签,或 Stable Diffusion 中的文字描述)去预测去噪的版本。在推理阶段,我们可以输入对期望图片的文字表述和纯噪声数据作为起始点,然后模型就开始全力对随机输入进行“去噪”,以求生成的图片能匹配上文字描述。
 
39
 
40
  ![text encoder diagram](text_encoder_noborder.png)<br>
41
  _图表:文本编码过程,即将输入的文本提示转化为一系列的文本嵌入(即图中的 encoder_hidden_states),然后输入 Unet 作为生成条件_
42
 
43
- 为了达成这一目的,我们首先需要为文本创建一个数值的表示形式,用来获取文字描述的相关信息。为此,SD 利用了一个名为CLIP的预训练transformer模型。CLIP 的文本编码器是用来处理图像说明文字、将其转换为可以用来对比图片和文本的形式的。所以这个模型非常适合用来从文字描述来为图像创建有用的表征信息。一个输入文字提示会首先被分词(tokenize,基于一个很大的词汇库把句中的词语或短语转化为一个个的token),然后被输入进 CLIP 的文字编码器,为每个token产出一个 768 维(针对 SD 1.X版本)或1024维(针对SD 2.X版本)的向量。为了使得输入格式一致,文本提示总是被补全或截断到含有 77 个 token 的长度,所以每个文字提示最终作为生成条件的表示形式是一个形状为 77×1024 的张量。
44
 
45
  ![conditioning diagram](sd_unet_color.png)
46
 
47
- 那我们如何实际地将这些条件信息输入到 UNet 里让它预测使用呢?答案是使用交叉注意力机制(cross-attention)。交叉注意力层从头到尾贯穿了 UNet 结构。UNet 中的每个空间位置都可以“注意”文字条件中不同的token,以此从文字提示中获取到了不同位置的相互关联信息。上面的图表就展示了文字条件信息(以及基于时间周期 time-step 的条件)是如何在不同的位置点输入的。 可以看到,UNet 的每一层都由充足的机会去利用这些条件信息!
48
 
49
  ## 无分类器的引导
50
 
51
- 然而很多时候,即使我们付出了很多努力尽可能让文本成为生成的条件,但模型仍然会在预测时大量地基于带噪输入图片,而不是文字。在某种程度上,这其实是可以解释得通的 —— 很多说明文字和与之关联的图片相关性很弱,所以模型就学着不去过度依赖文字描述!可是这并不是我们期望的效果。如果模型不遵从文本提示,那么我们很可能得到与我们描述根本不相关的图片。
52
 
53
  ![CFG scale demo grid](cfg_example_0_1_2_10.jpeg)<br>
54
  _由描述 "An oil painting of a collie in a top hat" 生成的图片(从左到右的 CFG scale 分别是 0、1、2、10)_
@@ -57,19 +58,19 @@ _由描述 "An oil painting of a collie in a top hat" 生成的图片(从左
57
 
58
  ## 其它类型的条件生成:超分辨率、图像修补、深度图到图像的转换
59
 
60
- 我们也可以创建各种接收不同生成条件的 Stable Diffusion ���型。比如[深度图到图像转换模型](https://huggingface.co/stabilityai/stable-diffusion-2-depth)使用一个额外的输入通道接收要被去噪的图片的深度信息。所以在推理阶段,我们就可以输入一个目标图片的深度图(由另一个独立的模型预测出来),以此来希望模型生成一个有相似全局结构的图片。
61
 
62
  ![depth to image example](https://huggingface.co/stabilityai/stable-diffusion-2-depth/resolve/main/depth2image.png)<br>
63
  _基于深度的 SD 模型可以根据同一个全局结构生成不同的图片(示例来自StabilityAI)_
64
 
65
- 用相似的方式,我们也可以输入一个低分辨率图片作为条件,让模型生成对应的高分辨率图片([正如Stable Diffusion Upscaler](https://huggingface.co/stabilityai/stable-diffusion-x4-upscaler)一样)。此外,我们还可以输入一个掩膜(mask),让模型知道图像相应的区域需要让模型用in-painting的方式重新生成一下:掩膜外的区域要和原图片保持一致,掩膜内的区域要生成出新的内容。
66
 
67
  ## 使用 DreamBooth 微调
68
 
69
  ![dreambooth diagram](https://dreambooth.github.io/DreamBooth_files/teaser_static.jpg)
70
  _由 Imagen model 生成的图片,来自[dreambooth 项目页](https://dreambooth.github.io/)_
71
 
72
- DreamBooth 可以用来微调一个文字到图像的生成模型,教它一些新的概念,比如某一特定物体或某种特定风格。这一技术一开始是为 Google 的 Imagen Model 开发的,但被很快应用于 [stable diffusion](https://huggingface.co/docs/diffusers/training/dreambooth) 中。效果十分惊艳(如果你最近在社交媒体上看到谁使用了 AI 生成的头像,那这个头像有很大概率是出自于基于 DreamBooth 的服务),但该技术也对各种设置十分敏感。所以请学习我们这一单元的笔记本,并阅读[这个对不同训练参数的调研资料](https://huggingface.co/blog/dreambooth)来获取些参考,让模型尽可能地起作用。
73
 
74
  ## 用来上手的笔记本示例
75
 
 
1
  # 单元3:Stable Diffusion
2
 
3
+ 欢迎来到 Hugging Face 扩散模型课程的第三单元!在这一单元,我们将学习 Stable Diffusion(SD)模型。
4
 
5
  ## 开始这一单元 :rocket:
6
 
 
20
  ![SD example images](sd_demo_images.jpg)<br>
21
  _示例图片,由 Stable Diffusion 生成_
22
 
23
+ Stable Diffusion 是一个强大的文本条件隐式扩散模型(text-conditioned latent diffusion model)。它根据文字描述生成惊艳图片的能力震惊了整个互联网。在本章,我们将会一探 SD 的工作原理并了解一些相关使用技巧。
24
 
25
  ## 隐式扩散(Latent Diffusion)
26
 
27
+ 当图片尺寸变大时,需要的计算能力也随之增加。这种现象在自注意力机制(self-attention)这种操作的影响下尤为突出,因为操作数随着输入量的增大呈平方地增加。一个 128px 的正方形图片有着四倍于 64px 正方形图片的像素数量,所以在自注意力层就需要16倍(4<sup>2</sup>)的内存和计算量。这是高分辨率图片生成任务的普遍问题。
28
 
29
  ![latent diffusion diagram](https://github.com/CompVis/latent-diffusion/raw/main/assets/modelfigure.png)<br>
30
  _Diagram from the [Latent Diffusion paper](http://arxiv.org/abs/2112.10752)_
31
 
32
+ 隐式扩散致力于克服这一难题,它使用一个独立的模型 Variational Auto-Encoder(VAE)**压缩**图片到一个更小的空间维度。这背后的原理是,图片通场都包含了大量的冗余信息。因此,我们可以训练一个 VAE,并通过大量足够的图片数据训练,使得它可以将图片映射到一个较小的**隐式**空间,并将这个较小的特征映射回原图片。SD 模型中的 VAE 接收一个三通道图片输入,生成出一个四通道的隐式表征,同时每一个空间维度上都减少为原来的八分之一。比如,一个 512px 的正方形图片将会被压缩到一个 4×64×64 的隐式表征上。
33
 
34
+ 通过在**隐式表征**上(而不是完整图像上)进行扩散过程,我们可以使用更少内存、减少 UNet 层数、加速生成。同时我们仍能把结果输入 VAE 的解码器,解码得到高分辨率图片。这一创新点极大地降低了训练和推理成本。
35
 
36
  ## 以文本为生成条件
37
 
38
+ 在第二单元,我们展示了如何将额外信息输入到 UNet,让我们对生成的图片有了额外的控制。我们把这种方法叫做条件生成。给定一个带噪图片,我们让模��**基于额外的线索**(比如类别标签,或 Stable Diffusion 中的文字描述)去预测去噪后的图片。
39
+ 在推理阶段,我们可以输入对期望图片的文字表述,使用纯噪声数据作为起始点,然后模型就开始全力对噪声输入进行“去噪”,生成能匹配上文字描述的图片。
40
 
41
  ![text encoder diagram](text_encoder_noborder.png)<br>
42
  _图表:文本编码过程,即将输入的文本提示转化为一系列的文本嵌入(即图中的 encoder_hidden_states),然后输入 Unet 作为生成条件_
43
 
44
+ 为了达成这一目的,我们首先需要为文本创建一个数值的表示形式,用来获取文字描述的相关信息。为此,SD 利用了一个名为 CLIP 的预训练 transformer 模型。CLIP 的文本编码器可以将文字描述转化为特征向量形式,这个特征向量可以用来和图片的特征向量对比相似度。所以这个模型非常适合用来从文字描述来为图像创建有用的表征信息。一个输入文字提示会首先被分词(tokenize,基于一个很大的词汇库把句中的词语或短语转化为一个个的token),然后被输入进 CLIP 的文字编码器,为每个token产出一个 768 维(针对 SD 1.X版本)或1024维(针对SD 2.X版本)的向量。为了使得输入格式一致,文本提示总是被补全或截断到含有 77 个 token 的长度,所以每个文字提示最终作为生成条件的表示形式是一个形状为 77×1024 的张量。
45
 
46
  ![conditioning diagram](sd_unet_color.png)
47
 
48
+ 那我们如何实际地将这些条件信息输入到 UNet 里让它预测使用呢?答案是使用交叉注意力机制(cross-attention)。交叉注意力层从头到尾贯穿了 UNet 结构。UNet 中的每个空间位置都可以“注意”文字条件中不同的token,以此从文字提示中获取到了不同位置的相互关联信息。上面的图表就展示了文字条件信息(以及基于时间周期 time-step 的条件)是如何在不同的位置点输入的。可以看到,UNet 的每一层都有机会去利用这些条件信息!
49
 
50
  ## 无分类器的引导
51
 
52
+ 然而很多时候,即使我们付出了很多努力尽可能让文本成为生成的条件,但模型仍然会在预测时大量地基于带噪输入图片,而不是文字。在某种程度上,这其实是可以解释得通的:很多说明文字和与之关联的图片相关性很弱,所以模型就学着不去过度依赖文字描述!可是这并不是我们期望的效果。如果模型不遵从文本提示,那么我们很可能得到与我们描述根本不相关的图片。
53
 
54
  ![CFG scale demo grid](cfg_example_0_1_2_10.jpeg)<br>
55
  _由描述 "An oil painting of a collie in a top hat" 生成的图片(从左到右的 CFG scale 分别是 0、1、2、10)_
 
58
 
59
  ## 其它类型的条件生成:超分辨率、图像修补、深度图到图像的转换
60
 
61
+ 我们也可以创建各种接收不同生成条件的 Stable Diffusion 模型。比如[深度图到图像转换模型](https://huggingface.co/stabilityai/stable-diffusion-2-depth)使用深度信息作为生成条件。在推理阶段,可以输入一个目标图片的深度图,以此来让模型生成一个有相似全局结构的图片。
62
 
63
  ![depth to image example](https://huggingface.co/stabilityai/stable-diffusion-2-depth/resolve/main/depth2image.png)<br>
64
  _基于深度的 SD 模型可以根据同一个全局结构生成不同的图片(示例来自StabilityAI)_
65
 
66
+ 用相似的方式,我们也可以输入一个低分辨率图片作为条件,让模型生成对应的高分辨率图片([正如Stable Diffusion Upscaler](https://huggingface.co/stabilityai/stable-diffusion-x4-upscaler)一样)。此外,我们还可以输入一个掩膜(mask),让模型知道图像相应的区域需要让模型用in-painting 的方式重新生成一下:掩膜外的区域要和原图片保持一致,掩膜内的区域要生成出新的内容。
67
 
68
  ## 使用 DreamBooth 微调
69
 
70
  ![dreambooth diagram](https://dreambooth.github.io/DreamBooth_files/teaser_static.jpg)
71
  _由 Imagen model 生成的图片,来自[dreambooth 项目页](https://dreambooth.github.io/)_
72
 
73
+ DreamBooth 可以用来微调文字到图像的生成模型,教它一些新的概念,比如某一特定物体或某种特定风格。这一技术一开始是为 Google 的 Imagen Model 开发的,但被很快应用于 [stable diffusion](https://huggingface.co/docs/diffusers/training/dreambooth) 中。效果十分惊艳(如果你最近在社交媒体上看到谁使用了 AI 生成的头像,那这个头像有很大概率是出自于基于 DreamBooth 的服务),但该技术也对各种设置十分敏感。所以请学习我们这一单元的笔记本,并阅读[这个对不同训练参数的调研资料](https://huggingface.co/blog/dreambooth)来获取些参考,让模型尽可能地起作用。
74
 
75
  ## 用来上手的笔记本示例
76