差别
这里会显示出您选择的修订版和当前版本之间的差别。
| 两侧同时换到之前的修订记录 前一修订版 后一修订版 | 前一修订版 | ||
| 深度学习:扩散模型:class1 [2026/03/13 13:39] – 张叶安 | 深度学习:扩散模型:class1 [2026/04/01 13:15] (当前版本) – [前向过程单步公式讲解] 张叶安 | ||
|---|---|---|---|
| 行 1: | 行 1: | ||
| + | ====== 显示图片 ====== | ||
| + | |||
| < | < | ||
| import torch # 导入 PyTorch 库,用于张量操作 | import torch # 导入 PyTorch 库,用于张量操作 | ||
| 行 46: | 行 48: | ||
| TensorFlow:(𝐻, | TensorFlow:(𝐻, | ||
| + | |||
| + | ====== 对称处理 ====== | ||
| + | |||
| 为了让数据和高斯噪声处在同一个零中心对称空间里,要对像素值进行仿射变换: | 为了让数据和高斯噪声处在同一个零中心对称空间里,要对像素值进行仿射变换: | ||
| 行 54: | 行 59: | ||
| 现在想它取值范围为[-1, | 现在想它取值范围为[-1, | ||
| + | |||
| + | 变换形式为$y=ax+b$ | ||
| + | |||
| + | 当$x=0$时,$y=-1$, | ||
| + | |||
| + | $y=2x-1$, | ||
| 仿射变换矩阵为: | 仿射变换矩阵为: | ||
| 行 131: | 行 142: | ||
| 可以看出图片的形状没有变 | 可以看出图片的形状没有变 | ||
| + | ====== 扩散过程 ====== | ||
| 扩散过程是基于一个**方差调度表**构建的,这个调度表决定了在扩散过程的每一个时间步中加入噪声的强度。为此,我们定义如下几个量: | 扩散过程是基于一个**方差调度表**构建的,这个调度表决定了在扩散过程的每一个时间步中加入噪声的强度。为此,我们定义如下几个量: | ||
| - | * `betas`:$\beta_t$ | + | * betas:$\beta_t$ |
| - | * `alphas`:$\alpha_t = 1 - \beta_t$ | + | * alphas:$\alpha_t = 1 - \beta_t$ |
| - | * `alphas_sqrt`:$\sqrt{\alpha_t}$ | + | * alphas_sqrt:$\sqrt{\alpha_t}$ |
| - | * `alphas_prod`:$\bar{\alpha}_t = \prod_{i=0}^{t}\alpha_i$ | + | * alphas_prod:$\bar{\alpha}_t = \prod_{i=0}^{t}\alpha_i$ |
| - | * `alphas_prod_sqrt`:$\sqrt{\bar{\alpha}_t}$ | + | * alphas_prod_sqrt:$\sqrt{\bar{\alpha}_t}$ |
| 行 144: | 行 156: | ||
| - | 1. `betas`:$\beta_t$ | + | 1. betas:$\beta_t$ |
| 它表示**第 $t$ 步加入噪声的强度**,也可以理解为该步的“噪声方差比例”。 | 它表示**第 $t$ 步加入噪声的强度**,也可以理解为该步的“噪声方差比例”。 | ||
| 行 158: | 行 170: | ||
| - | 2. `alphas`:$\alpha_t = 1 - \beta_t$ | + | 2. alphas:$\alpha_t = 1 - \beta_t$ |
| 它表示**第 $t$ 步保留下来的原始信号比例**。 | 它表示**第 $t$ 步保留下来的原始信号比例**。 | ||
| 行 179: | 行 191: | ||
| - | 3. `alphas_sqrt`:$\sqrt{\alpha_t}$ | + | 3. alphas_sqrt:$\sqrt{\alpha_t}$ |
| 这个量是在实际加噪公式里直接使用的系数。 | 这个量是在实际加噪公式里直接使用的系数。 | ||
| 行 191: | 行 203: | ||
| * $x_{t-1}$ 是上一步图像 | * $x_{t-1}$ 是上一步图像 | ||
| * $x_t$ 是当前这一步加噪后的图像 | * $x_t$ 是当前这一步加噪后的图像 | ||
| - | * $\epsilon_t \sim \mathcal{N}(0, | + | * $\epsilon_t \sim \mathcal{N}(0, |
| **直观理解:** | **直观理解:** | ||
| 行 197: | 行 209: | ||
| $\sqrt{\alpha_t}$ 是**上一步图像在当前步中的保留权重**。 | $\sqrt{\alpha_t}$ 是**上一步图像在当前步中的保留权重**。 | ||
| - | 之所以取平方根,是因为扩散模型里控制的是**方差**,而真正乘在样本上的系数是标准差,所以会出现平方根。 | + | 之所以取平方根,是因为扩散模型里控制的是[[概率论: |
| + | 注:变量乘以标准差,才能得到对应的方差。如X=> | ||
| - | 4. `alphas_prod`:$\bar{\alpha}_t = \prod_{i=0}^{t}\alpha_i$ | + | |
| + | |||
| + | |||
| + | 4. alphas_prod:$\bar{\alpha}_t = \prod_{i=0}^{t}\alpha_i$ | ||
| 它表示从第 $0$ 步到第 $t$ 步,**所有保留比例连乘之后的结果**。 | 它表示从第 $0$ 步到第 $t$ 步,**所有保留比例连乘之后的结果**。 | ||
| 行 218: | 行 234: | ||
| - | 5. `alphas_prod_sqrt`:$\sqrt{\bar{\alpha}_t}$ | + | 5. alphas_prod_sqrt:$\sqrt{\bar{\alpha}_t}$ |
| 这个量是从原图 $x_0$ 直接生成第 $t$ 步噪声图 $x_t$ 时的关键系数。 | 这个量是从原图 $x_0$ 直接生成第 $t$ 步噪声图 $x_t$ 时的关键系数。 | ||
| 行 559: | 行 575: | ||
| - | 反向过程 | + | ====== |
| 反向过程 $p$ 的目的是:根据扩散链中的当前样本 $x_t$,去近似恢复前一步的样本 $x_{t-1}$。在实际情况下,这种近似 $p(x_{t-1}|x_t)$ 必须在不知道 $x_0$ 的前提下完成。 | 反向过程 $p$ 的目的是:根据扩散链中的当前样本 $x_t$,去近似恢复前一步的样本 $x_{t-1}$。在实际情况下,这种近似 $p(x_{t-1}|x_t)$ 必须在不知道 $x_0$ 的前提下完成。 | ||
| 行 686: | 行 703: | ||
| - | 如果噪声 $\epsilon$ 能够被正确预测,那么我们就可以利用公式 (5) 来预测 $x_0$: | + | 如果噪声 $\epsilon$ 能够被正确预测,那么我们就可以利用公式 |
| <code python> | <code python> | ||
| - | x_0_pred = (x_t - (1 - alphas_cumprod[t_step]).sqrt() * noise) / (alphas_cumprod_sqrt[t_step]) | + | import torch # 导入 PyTorch 库,用于张量操作 |
| + | import torch.nn.functional as F # 导入 PyTorch 的函数式 API | ||
| + | import numpy as np # 导入 NumPy 库,用于数值计算 | ||
| + | import matplotlib as mpl # 导入 Matplotlib 库的主模块 | ||
| + | import matplotlib.pyplot as plt # 导入 Matplotlib 的绘图模块 | ||
| + | import imageio.v2 as imageio | ||
| - | plt.subplot(1, | + | mpl.rcParams['figure.figsize'] = (12, 8) # 设置 Matplotlib 图表默认尺寸 |
| - | show(x_t) | + | |
| - | plt.title('$x_t$ ($\ell_1$: {:.3f})'.format(F.l1_loss(x_t, img_))) | + | |
| - | plt.axis(' | + | |
| - | plt.subplot(1, | + | # 读取图片,像素值归一化到[0, |
| - | show(x_0_pred) | + | img = torch.FloatTensor(imageio.imread(' |
| - | plt.title(' | + | |
| - | plt.axis(' | + | # 值域转换函数:将图像从 [0,1] 转换到 [-1, |
| + | def input_T(input): | ||
| + | # [0,1] -> [-1,+1] | ||
| + | return 2 * input - 1 | ||
| + | |||
| + | # 值域转换函数:将图像从 [-1,+1] 转换到 [0, | ||
| + | def output_T(input): | ||
| + | # [-1,+1] -> [0,1] | ||
| + | return (input + 1) / 2 | ||
| + | |||
| + | # 显示图像函数,自动转换值域并裁剪到 [0,1] | ||
| + | def show(input): | ||
| + | plt.imshow(output_T(input).clip(0, | ||
| + | |||
| + | |||
| + | # ========== 扩散模型超参数设置 ========== | ||
| + | T = 100 # 时间步总数 | ||
| + | |||
| + | # 定义 beta 调度(线性调度) | ||
| + | betas = torch.linspace(0.0001, | ||
| + | |||
| + | # 计算 alpha 相关参数 | ||
| + | alphas = 1 - betas # alpha_t = 1 - beta_t | ||
| + | alphas_cumprod = torch.cumprod(alphas, | ||
| + | alphas_cumprod_sqrt = torch.sqrt(alphas_cumprod) | ||
| + | |||
| + | # 设置前向跳转的时间步 | ||
| + | t_step = 50 | ||
| + | |||
| + | |||
| + | def forward_jump(t, | ||
| + | """ | ||
| + | forward jump: 0 -> t | ||
| + | 直接跳转加噪:从初始时刻 0 直接加噪到时刻 t | ||
| + | |||
| + | 根据扩散模型公式:x_t = √ᾱ_t * x_0 + √(1-ᾱ_t) * ε | ||
| + | 其中 ε ~ N(0, I) | ||
| + | """ | ||
| + | assert t >= 0 | ||
| + | |||
| + | mean = alphas_cumprod_sqrt[t] * condition_img | ||
| + | std = (1 - alphas_cumprod[t]).sqrt() | ||
| + | |||
| + | # 从正态分布采样 | ||
| + | if not return_noise: | ||
| + | return mean + std * torch.randn_like(condition_img) | ||
| + | else: | ||
| + | noise = torch.randn_like(condition_img) | ||
| + | return mean + std * noise, noise | ||
| + | |||
| + | |||
| + | # ========== 主程序 ========== | ||
| + | if __name__ == " | ||
| + | # 将图像转换到 [-1, 1] 值域 | ||
| + | img_ = input_T(img) | ||
| + | |||
| + | # 执行前向跳转加噪,获取加噪后的图像和噪声 | ||
| + | x_t, noise = forward_jump(t_step, | ||
| + | |||
| + | # 根据 x_t 和噪声预测 x_0 | ||
| + | # 由 x_t = √ᾱ_t * x_0 + √(1-ᾱ_t) * ε 可得: | ||
| + | # x_0 = (x_t - √(1-ᾱ_t) * ε) / √ᾱ_t | ||
| + | x_0_pred = (x_t - (1 - alphas_cumprod[t_step]).sqrt() * noise) / alphas_cumprod_sqrt[t_step] | ||
| + | |||
| + | # 可视化结果:x_t(加噪图像)、x_0 预测值、原始 x_0 | ||
| + | plt.subplot(1, | ||
| + | show(x_t) | ||
| + | plt.title(r' | ||
| + | plt.axis(' | ||
| + | |||
| + | | ||
| + | show(x_0_pred) | ||
| + | plt.title(r'$x_0$ prediction ($\ell_1$: {: | ||
| + | plt.axis(' | ||
| + | |||
| + | plt.subplot(1, | ||
| + | show(img_) | ||
| + | plt.title(r' | ||
| + | plt.axis(' | ||
| + | |||
| + | plt.suptitle(f' | ||
| + | plt.tight_layout() | ||
| + | plt.show() | ||
| - | plt.subplot(1, | ||
| - | show(img_) | ||
| - | plt.title(' | ||
| - | plt.axis(' | ||
| </ | </ | ||
| + | |||
| + | |||
| + | {{.: | ||
| 这里的含义是: | 这里的含义是: | ||
| 行 766: | 行 866: | ||
| plt.title(r' | plt.title(r' | ||
| </ | </ | ||
| + | |||
| + | {{.: | ||
| 这三幅图分别表示: | 这三幅图分别表示: | ||
| 行 983: | 行 1085: | ||
| 也就是说,它实现了扩散模型中的一次“去噪反推”。 | 也就是说,它实现了扩散模型中的一次“去噪反推”。 | ||
| + | |||
| + | |||
| + | {{.: | ||
| + | |||
| + | {{.: | ||