GAN和DCGAN的讨论
来源:互联网 发布:散打教学软件 编辑:程序博客网 时间:2024/05/18 03:48
1. GAN对噪声z的分布有要求吗?常用哪些分布?
一般没有特别要求,常用有高斯分布、均匀分布。噪声的维数至少要达到数据流形的内在维数,才能产生足够的diversity,mnist大概是6维,CelebA大概是20维(参考:https://zhuanlan.zhihu.com/p/26528060)
2. GAN的 adversarial 体现在哪里?
G和D的博弈,G需要尽量贴近p_data,D需要识别出真实数据和G生成的数据
3. G和D的loss分别是什么?p_data和p_g的JS divergence和adversarial loss之间存在什么关系?
D的loss 伯努利分布的对数似然函数
G的loss
- zero game时,Equation 1
- 实际训练,Equation 2
- 不用zero game loss的原因,In practice, equation 1 may not provide sufficient gradient for G to learn well. Early in learning,when G is poor, D can reject samples with high confidence because they are clearly different fromthe training data. In this case, log(1 − D(G(z))) saturates. Rather than training G to minimizelog(1 − D(G(z))) we can train G to maximize log D(G(z)). This objective function results in thesame fixed point of the dynamics of G and D but provides much stronger gradients early in learning.
GAN优化的目标是JSD,是指在D最优的时候,GAN的目标才等价于JSD。
4. 在一轮迭代中,G和D的更新次数哪个多?为了让G学得更好一点,能不能让G多更新?
D更新次数更多,如果G更新太多次会导致diversity不足。
- in particular, G must not be trained too much without updating D, in order to avoid “the Helvetica scenario” in which G collapses too many values of z to the same value of x to have enough diversity to model p_data
- Optimizing D to completion in the inner loop of training is computationally prohibitive, and on finite datasets would result in overfitting. Instead, we alternate between k steps of optimizing D and one step of optimizing G. This results in D being maintained near its optimal solution, so long as G changes slowly enough.
5. 在GAN中添加batch normalization层有什么作用?
更稳定:
- 解决随机初始化参数不理想,
- 防止梯度爆炸,只是降低概率,其他不可控因素还是可能导致梯度爆炸
DCGAN中经验:
Directly applying batchnorm to all layers however, resulted in sample oscillation and model instability. This was avoided by not applying batchnorm to the generator output layer and the discriminator input layer
6. DCGAN对激活函数做了哪些限制? DCGAN哪些地方使用卷积,哪些地方使用反卷积(fractional-strided卷积),哪些地方使用全连接?
- 激活函数:
- G: ReLU, output tanh
- D: leaky rectified activation (GAN mahout), output softmax/sigmoit
- 卷积应该是D降采样用的,反卷积是G上采样用的
- 全连接层: 去掉
7. GAN的隐空间的每个维度是否有明确的含义?
原始的GAN应该没有明确含义,它们都交织在一起了,共同决定生成图像的某些属性。
后来的论文,infogan、acgan,对隐空间做disentangle就有了
原文传送门:http://iccm.cc/GAN_DCGAN/
阅读全文
0 0
- GAN和DCGAN的讨论
- GAN和DCGAN
- [GAN 专栏-01]GAN&DCGAN
- GAN——DCGAN
- 学习笔记GAN003:GAN、DCGAN、CGAN、InfoGAN
- GAN和Wassertein GAN
- 继上一次GAN应用于NLP的讨论的后续讨论
- DCGAN的学习
- GAN的模型和理论发展
- 近期GAN的模型和理论发展
- GAN的基本原理、应用和走向
- 记录一次与大神们的关于GAN应用于NLP的讨论
- 生成式对抗网络GAN研究进展(五)——Deep Convolutional Generative Adversarial Nerworks,DCGAN
- <纯干货-2>GAN视频教程part5-DCGAN实战及所有数据
- Resources and Implementations of Generative Adversarial Nets: GAN, DCGAN, WGAN, CGAN, InfoGAN
- 和前辈的讨论
- ICLR 2017 | GAN Missing Modes 和 GAN
- 深度学习新星:GAN的基本原理、应用和走向
- 面试题24:二叉搜索树的后序遍历序列
- Regular Expression Matching--LeetCode
- poj 2965 The Pilots Brothers' refrigerator 【dfs+枚举】【双十一大礼包】【刷题计划】
- 预设置只读文件系统squashfs上的文件的扩展属性的方法
- 惊群
- GAN和DCGAN的讨论
- android SDL系列讲解(十三) 播放音乐库 SDL_mixer教程
- iscsi:IO操作流程(二)
- 1015. 德才论 (25)
- 八数码
- numpy.array学习笔记
- 数据结构实验之二叉树三:统计叶子数
- SDL的几个宽高概念讲解(文中有福利)
- 基于proxychains4进行终端加速 wget,curl等