关于Visualizing and understanding convolutional networks的一次报告

来源:互联网 发布:生成式对抗网络 应用 编辑:程序博客网 时间:2024/06/13 02:22

我就直接上传我做的ppt以及ppt的讲义吧,可能有些混乱,权当参考。如果有问题可以留言讨论。

好像只能有传资源的模式,如果没有积分可以直接私信我邮箱,我发给你。
ppt+讲义下载

关于这次报告陆陆续续也找了不少资料,但是还存在一点疑问:
究竟文字的deconv方法是在重构input(x)还是在求y对x的偏导?

有意思的地方是在cs课程里面,将deconv方法和bp的梯度进行了对比,如图:

这里写图片描述

我们可以看出deconv肯定不是bp的,他们的不同在于,a=f(z) 在进行梯度的时候反向乘以的是f'(z) 而deconv则是对传回来的梯度进行relu。课程中给出的解释是通过正激活,抑制负激活。

这里的正激活就是传回来的数值是正数,负激活是负数。 可是对于正激活和负激活的解释,我还有些疑惑。正导数好像只能说明梯度递增?为什么他能够代表着x激活了y?

而且进一步这里的对比是说明了deconv是对计算偏导的一种改进方法嘛?也就是说deconv也是在算怎样的x最大激活了y?
但是论文中不断地提到了reconstructions一词,而且可视化的结果也很像x中的某一块。

总的来说论文有很多我觉得没有说清楚的地方~也有可能是我没有看明白,但是这篇论文的学习可能就到此为止了。

下面给出一个code链接,是我觉得比较简单的,keras实现的。code参考

希望有大牛可以告知一下我的疑惑,谢谢了~~

阅读全文
0 0
原创粉丝点击