卷积神经网络(三)

来源:互联网 发布:淘宝950轮播代码 编辑:程序博客网 时间:2024/06/03 12:26
前两篇我们已经对卷积神经网络的结构,做了详细的介绍。小小的总结一下:原始图像经过多个卷积核卷积得到多个卷积特征,再经过池化层池化,得到池化特征,通常我们还会把池化特征经过一个激活函数进行非线性变化再输入到我们的分类器中。现在deep learning中大多都使用Relu这个激活函数,关于Relu我们稍后再谈。下面这个流程图就是卷积神经网络的基本结构了。

今天我们将会介绍 多层卷积。

一:多层卷积

在实际建模中,往往我们会使用多层卷积,也就是多次使用上面的这种流程,再输入到分类器(这个分类器可以是一个全链接的神经网络,也可以是maxsoft这种分类器,等等)中去训练。为什么我们要使用多层卷积结构呢? 记得有位大拿说过,一个不够深的神经网络对于深度学习是有害的。为尽可能的增加网络的深度,显而易见的方法就是应用多层卷积。大拿说的就是对的么?那我们来从问题本质来分析。对于我们图像识别领域而言,输入的图像,它的特征的层次结构是与生俱来的。从原始输入的 像素 开始,到由像素构成的简单的 线条 和 纹理 ,再到由线条与纹理构成了 图案 ,最后是由各个图案构成图像中的 物体 。

整个过程通过原始输入找到浅层特征,在对浅层特征进一步挖掘找到中层特征,最后一步步获得高层特征。但想要从原始输入直接找到高层特征无疑是行不通的。简而言之,单层的卷积学习到的往往是浅层的特征,增加卷积的层数才有可能学习到更高层的特征。对于图像的识别,往往是需要的是高层特征。引用一段别人的话来形象的解释:

“如果有一幅图片,一个像素有一个人那么大,当你距离图片50cm去看图片,你只能看到几个像素,所以你是看不出来这个图片是个什么鬼的。站到很远很远地方再看它,反而能看得清全貌了。神经网络的层数多起来,就像你站得更远去看这个图片一样,是观察粒度上的改变。而更宏观的粒度层面是需要底下更微观的粒度层面一层一层传递和堆砌出来的。”


现在我们已经构建了一个多层卷积神经网络了。理论上它已经可以work了,但还有一些细节我们需要补充,下篇将介绍 激活函数 和 Dropout Layer。


Created by 苑鹏掣

这里写图片描述


原创粉丝点击