CNN 干货

来源:互联网 发布:天龙八部染发好看数据 编辑:程序博客网 时间:2024/05/06 11:54

入门篇


先看这个,有个认识
https://zhuanlan.zhihu.com/p/25249694
在看这个,了解BP算法
https://zhuanlan.zhihu.com/p/25387613
如果不理解激活函数在卷积层做什么的的,看这个
http://blog.csdn.net/elaine_bao/article/details/50810598
反卷积,上采样
http://blog.csdn.net/fate_fjh/article/details/52882134
各种卷积操作的图片讲解
https://github.com/vdumoulin/conv_arithmetic
最近才弄明白为什么在卷积层里,输出的feature map不是“输入的channel数*卷积核数”了,看如下,附带caffe卷积实现原理
http://blog.csdn.net/u014114990/article/details/51125776
对于1X1的卷积层,我的个人理解是不是和全局平均池化类似,只不过一个是求feature map的平均值,一个是线性组合?
关于Drop-out Layer
http://blog.csdn.net/stdcoutzyx/article/details/49022443
对于Softmax(仅仅使用在输出层)与交叉熵的Loss Function
http://blog.csdn.net/behamcheung/article/details/71911133
ResNet
https://www.leiphone.com/news/201608/vhqwt5eWmUsLBcnv.html
大名鼎鼎的CS231
http://cs231n.github.io/
http://www.mooc.ai/course/268

历史回顾


Deep Learning回顾之基于深度学习的目标检测
http://blog.csdn.net/u012507022/article/details/52908811


数据处理


数据的弹性形变来给样本增加
https://stackoverflow.com/questions/39308301/expand-mnist-elastic-deformations-matlab

原创粉丝点击