machine-learning
  • Welcome
  • 动手学深度学习
    • 1. 前言
    • 2. 预备知识
    • 3. 线性神经网络
    • 4. 多层感知机
    • 5. 深度学习计算
    • 6. 卷积神经网络
    • 7. 现代卷积神经网络
    • 8. 循环神经网络
    • 9. 现代循环神经网络
    • 10. 注意力机制
    • 11. 优化算法
    • 12. 计算性能
    • 13. 计算机视觉
    • 14. 自然语言处理:预训练
    • 15. 自然语言处理:应用
    • 16. 附录:深度学习工具
  • 百面机器学习
    • 1. 特征工程
    • 2. 模型评估
    • 3. 经典算法
    • 4. 降维
    • 5. 非监督学习
    • 6. 概率图模型
    • 7. 优化算法
    • 8. 采样
    • 9. 前向神经网络
    • 10. 循环神经网络
    • 11. 强化学习
    • 12. 集成学习
    • 13. 生成式对抗网络
    • 14. 人工智能的热门应用
  • 百面深度学习
    • 1. 卷积神经网络 CNN
    • 2. 循环神经网络 RNN
    • 3. 图神经网络 GNN
    • 4. 生成模型
    • 5. 生成式对抗网络 GAN
    • 6. 强化学习 RL
    • 7. 元学习
    • 8. 自动化机器学习 AutoML
    • 9. 计算机视觉 CV
    • 10. 自然语言处理 NLP
    • 11. 推荐系统
    • 12. 计算广告
    • 13. 视频处理
    • 14. 计算机听觉
    • 15. 自动驾驶
  • 统计学习方法
  • 推荐系统实践
    • 1. 推荐系统
    • 2. 特征工程
    • 3. Embedding
    • 4. 精排
    • 5. 召回
    • 6. 粗排/重排
    • 7. 多任务/多场景
    • 8. 冷启动
    • 9. 评估调试
    • 10. 自我修养
  • 深度学习推荐系统
    • 1. 推荐系统
    • 2. 进化之路
    • 3. 深度学习的应用
    • 4. Embedding
    • 5. 多角度审视
    • 6. 工程实现
    • 7. 评估方法
    • 8. 前沿实践
    • 9. 知识框架
  • 强化学习的数学原理
    • 1. 基础概念
    • 2. 贝尔曼公式
    • 3. 贝尔曼最优公式
    • 4. 值迭代与策略迭代
    • 5. 蒙特卡洛方法
    • 6. 随机近似与随机梯度下降
    • 7. 时序差分方法
    • 8. 值函数近似
    • 9. 策略梯度方法
    • 10. Actor-Critic方法
Powered by GitBook
On this page
  • 4.1 深度信念网络与深度玻尔兹曼机 ***
  • 4.2 变分自编码器的基础知识 ***
  • 4.3 变分自编码器的改进 ****
  • 4.4 生成式匹配网络与深度自回归网络 ***
  1. 百面深度学习

4. 生成模型

Previous3. 图神经网络 GNNNext5. 生成式对抗网络 GAN

Last updated 3 years ago

4.1 深度信念网络与深度玻尔兹曼机 ***

非监督预训练,初始化 NN

  • 受限玻尔兹曼机(RBM):可见层 v,隐藏层 h

    • 无向图模型,以最大化数据似然为目标(Gibbs 采样,对比离散度)

    • 图像数据:可见层高斯分布,内部增加连接

  • 深度信念网络(DBN)和 深度玻尔兹曼机(DBM)的区别

    • 模型结构:DBN 顶层无向+下层有向,DBM 无向图模型

    • 训练模型:DBN 逐层训练,DBM 预训练+整体训练

    • 用于初始化 NN:DBN 直接赋值,DBM 需要将后验分布 q(h2∣v)q(h^2|v)q(h2∣v) 作为额外输入

4.2 变分自编码器的基础知识 ***

  • 变分自编码器 VAE

    • 核心想法:找到一个容易生成数据 x 的 z 分布,即后验分布 QΦ(z∣xi)Q_\Phi(z|x_i)QΦ​(z∣xi​)

    • 生成新数据:采样 z∼N(0,I)z\sim \mathcal N(0,I)z∼N(0,I),解码器 Pθ(x∣z)P_\theta(x|z)Pθ​(x∣z),新样本 xxx

  • 控制生成图像类别:半监督,收到隐变量 y 的影响(控制类别)

  • 修改损失函数,使得隐藏层编码相互解耦:β\betaβ-VAE,约束维度之间相关性(QΦQ_\PhiQΦ​~标准正态分布)

4.3 变分自编码器的改进 ****

训练稳定,但生成图像模糊(MSE 损失)

  • 问题改进

    • 近似后验分布 QΦQ_\PhiQΦ​ 是高斯分布,但真实后验分布 Pθ(z∣x)P_\theta (z|x)Pθ​(z∣x) 不一定满足

      • 归一化流方法:对初始的隐藏变量 zoz_ozo​,做 K 次变换,得到 zKz_KzK​

      • 引入额外隐藏变量

    • 优化对数似然函数 log⁡Pθ(x)\log P_\theta(x)logPθ​(x) 的下界,与原始目标函数有一定距离

      • 重要性采样,逼近更紧致的下界

  • VAE(学习显式的后验分布)与 GAN(没有数据的分布形式,任意复杂)结合

    • 参数共享,GAN + VAE 二合一

    • 对抗自编码器:对抗学习,QΦ(z∣x)Q_\Phi(z|x)QΦ​(z∣x) 和 P(z)P(z)P(z) 相近

    • 对抗学习推断(ALI):在 GAN 的基础上引入 VAE

4.4 生成式匹配网络与深度自回归网络 ***

  • VAE:变分推断方法,寻求 P(x)P(x)P(x) 的近似

  • GAN:生成对抗方法,寻找生成模型 PG(x)P_G(x)PG​(x) 拟合 P(x)P(x)P(x)

  • 生成式矩匹配网络(GMMN)

    • 最大均值差异(MMD):比较两个分布,各阶统计量

    • GMMN:寻找分布 PG(Y)P_G(Y)PG​(Y),与原始数据分布 PD(X)P_D(X)PD​(X) 尽可能相似

  • 深度自回归分布估计器(NADE)

  • 深度自回归网络(DARN)