13. 生成式对抗网络
Last updated
Last updated
生成器(Generator)、判别器(Discriminator)
对抗策略:交替优化
双人 MiniMax 游戏,理想情况达到 纳什均衡点
D 二分类,损失函数 Negative Log-Likelihook,也称 Categorical Cross-entropy Loss
值函数
优化 G,是在 最小化 生成样本分布 与 真实样本分布 的 JS 距离
优化 G 的过程是让 G 远离前一步的 G',同时接近分布
达到均衡点时,
GANs 刻画概率生成模型时,并不对概率密度函数 直接建模,而是通过制造样本 ,间接体现
如果随机变量 Z 和 X 之间满足映射
则它们的概率分布 和 也存在某种映射关系
已知 Z 的分布,对 建模,就唯一确定了 X 的分布
优化饱和:早期 G 很差,D 容易识别,使得回传给 G 的梯度小
生成器不稳定,模式坍缩,高维空间大部分多余,真实数据蜷缩在低维子空间的流形上
有效锁定低维子空间中的真实数据分布
WGAN 使用 Wasserstein 距离的对偶式
CNN 丢失大量信息,难以输出高分辨率图片
生成器 G
两点原则
保证信息在逐层计算中逐渐增多
不损失位置信息,并不断产生更细节的位置信息
具体做法
去掉会丢掉位置信息的结构,如 pool
使用分数步进卷积层(Fractional-Strided Convolutions),补0后卷积
去掉最后的全连接层
Batchnorm 和 ReLU,只在输出层用 tanh
判别器 D
图片分类任务,但注重 细节差异,而不是 宏观语义差异
抛弃 pool,替换为 step>1 的卷积层
不接全连接层,内部使用 LReLU,Batchnorm 层
Adversarially Learned Inference
生成网络 和 推断网络 的融合
模拟样本真实分布,模拟样本的隐空间表示真实分布的隐空间表示
从文档集合中,选出迷惑性强的 负样本
用 GAN 产生负样本(查询词为 q,文档为 d)
生成器 G,生成文字组成的序列,表示句子
RNN(LSTM、GRU、Attention),每个条件概率选一个词,依次进行
优化目标
G:生成文字序列,高度地模仿真实句子
D:区分 真实句子 vs. 生成句子
将 变为 ,后者最大==前者最小
,是两个 KL 距离的平均
Wasserstein 距离,也称推土机距离
G 分布随参数 变化而连续变化时,Wasserstein 距离也随 变化而连续变化
,判别器变为 评分器(Critic)
生成网络 :将 隐空间 的 随机样本 映射到 数据空间
推断网络 :将 数据空间 的 训练样本 映射到 隐空间
判别网络 :分辨 联合样本 是来自 生成网络 还是 推断网络
生成式检索模型
判别式检索模型
生成器优化目标