CNN 学习小结

来源:互联网 发布:大众汽车斯柯达软件 编辑:程序博客网 时间:2024/06/05 19:21

  • 神经网路主要算法简介
    • CNN
    • RNN
    • DNN
  • CNN
    • CNN两大核心
      • 局部感知野
      • 参数共享
    • 多卷积核池化Down-Pooling

神经网路主要算法简介

CNN

 Convolutional Neural Network 卷积神经网路 空间上深度的神经网路 多用于图像分类、语音识别等。

RNN

Recurrent Neural Networks 循环神经网路时间上深度的神经网络隐含层增加自连边跟互连边,隐含层相互连接。回归型网络,用于序列数据,并且有了一定的记忆效应,辅之以lstm。

RNN网络结构

DNN

Deep Neural Networks 深度神经网络全连接神经元结构,广义上包括 CNN、DNN。

CNN

CNN两大核心

保证CNN计算效率的两大神器,减少参数数目,共享神经元特征提取权重。

局部感知野

    一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。![全连接 VS 局部链接](http://img.blog.csdn.net/20160414162412422))

参数共享

    不同的神经元,通过通过使用相同的参数做特征提取,大大减少了特征提取的工作量。    图像的一部分的统计特性与其他部分是一样的。这也意味着我们在这一部分学习的特征也能用在另一部分上,所以对于这个图像上的所有位置,我们都能使用同样的学习特征。![一个3×3的卷积核在5×5的图像上做卷积的过程](https://raw.githubusercontent.com/stdcoutzyx/Paper_Read/master/blogs/imgs/6.gif)

多卷积核&池化(Down-Pooling)

为了学习到图像的更多的特征,一般我们会用多个不同的卷积核对图像进行卷积操作,最后再将学习到的特征通过例如 softmax 分类器等做分类处理。![多卷积核](https://raw.githubusercontent.com/stdcoutzyx/Paper_Read/master/blogs/imgs/7.jpg)    但是一般卷积操作过后,每个卷积核生成的卷积特征矩阵仍然是很大的,会带来巨大的据算量。所以我们通过池化方式,对特征矩阵进行降维操作。    池化的基本原理就是,通过对图像的局部进行聚合操作,如求最大值或者平均值的方法。    池化的优点,不仅会使分类计算量大大减少,而且还会避免过拟的发生。![池化过程](https://raw.githubusercontent.com/stdcoutzyx/Paper_Read/master/blogs/imgs/10.gif)

参考文章:http://blog.csdn.net/stdcoutzyx/article/details/41596663

0 0
原创粉丝点击