当前位置: 首页 > news >正文

扩散模型-PPDM-plus-03 - jack

目录
  • 模型训练
  • 样本生成

参考:https://zhuanlan.zhihu.com/p/614498231

模型训练

我们可以直接基于原始数据 \(X_0\) 来对任意 \(t\) 步的 \(X_t\) 进行采样,那么在实际训练过程中,我们不必将所有的时间片都拿来训练。而采取直接采样到时刻 \(t\)
然后得到该时刻的 \(X_t\) 并使用神经网络预测添加的噪声即可,因为扩散模型的 \(T\) 是一个非常大的值,使用这种方式将大幅提升训练速度。它的训练过程为:

从分布为 \(q(x_0)\) 的数据集随机采样一个样本 \(x_0 ~ q(x_0)\)
\(1\)\(T\) 中随机采样一个值 \(t\) ,用于表示添加噪声的水平;
随机采样一个二维高斯噪音 \(\epsilon\) ,然后使用上面介绍的“Nice Property”对 \(X_0\) 施加 \(t\) 级别的噪声;
训练神经网络根据加噪之后的 \(X_t\) 预测作用到 \(X_0\) 之上的噪声。
image

样本生成

扩散模型的生成过程是一个反向去噪的过程,它的伪代码见算法2。具体的讲,我们从 \(T\) 时刻开始,首先随机采样一个高斯噪声。
使用神经网络预测的噪声逐渐对其去噪,直到 \(0\) 时刻停止。

\(X_t\)\(X_{t-1}\) 的计算公式
image
image

image是一个二维标准高斯分布
算法过程:
image

DDPM作为一个扩散模型的基石算法,它有着很多早期算法的共同问题:
采样速度慢:DDPM的去噪是从时刻T到时刻1的一个完整的马尔可夫链的计算,尤其是DDPM还需要一个比较大的T才能保证比较好的效果,这就导致了DDPM的采样过程注定是非常慢的;
生成效果差:DDPM的效果并不能说是非常好,尤其是对于高分辨率图像的生成。这一方面是因为它的计算速度限制了它扩展到更大的模型;另一方面它的设计还有一些问题,例如逐像素的计算损失并使用相同权值而忽略图像中的主体并不是非常好的策略。
内容不可控:我们可以看出,DDPM生成的内容完全还是取决于它的训练集。它并没有引入一些先验条件,因此并不能通过控制图像中的细节来生成我们制定的内容。

http://www.sczhlp.com/news/969.html

相关文章:

  • c++ 进制转换
  • 【LeetCode 2】力扣算法:两数相加
  • 测试支持 PolarDB-X(高度兼容 MySQL) 的客户端图形工具
  • Gitlab Runner怎么使用缓存cache加快构建速度
  • 一个38岁程序员的五年之约:软考、重构与独立开发者之路
  • 1.初看代码
  • Tita 新绩效一体化产品:重塑企业绩效管理新范式
  • 完整教程:【Unity笔记03】#if的用法和命名空间
  • 莫比乌斯反演+杜教筛+Plya学习笔记
  • 可持久化并查集
  • SAP 工序委外简介
  • GitHub汉化教程
  • Django中遇到choice定义的模型类中的字段,通过输入数字展示输出对应中文的需求
  • 提示工程:大语言模型的新特征工程
  • MyEMS开源能源管理系统核心代码解读022
  • 强化集成、可靠性与信任:Stack Overflow for Teams 新功能解析
  • 5090+Ubuntu24.04安装pytorch环境(时间点:202507) - fourk
  • 理解JavaScript中的闭包
  • Air8000 GPIO实战指南:LuatIO配置是否不可或缺?设计建议
  • 普源PVP2150/PVP2350的理想替代方案:西安普科PK6150/PK6350无源探头全面评测
  • 1688商品列表API调用全过程分享
  • 深度揭秘!Java Class 文件加密终极指南,有效保护你的核心代码
  • springboot项目打包成docker镜像
  • 克劳德代码与 Cursor 的问题:AI 编程的死亡螺旋
  • [题解]P5094 [USACO04OPEN] MooFest G 加强版
  • Win10专业版如何关闭Windows错误报告的问题
  • Win11正式版玩游戏输入法冲突的问题
  • Elasticsearch Circuit Breaker 全面解析与最佳实践 - 教程
  • ROS1(20.04 noetic) + PX4 + AirSim
  • 扩散模型-PPDM-95 - jack