深度学习之cnn中第一层卷积层特征的显示
来源:互联网 发布:深圳毕业生入户 知乎 编辑:程序博客网 时间:2024/06/01 10:27
一、前言
本篇文章主要介绍了CNN网络中卷积层的计算过程,欲详细了解CNN的其它信息可以参考:技术向:一文读懂卷积神经网络。
卷积神经网络(CNN)是局部连接网络。相对于全连接网络其最大的特点就是:局部连接性和权值共享性。因为对一副图像中的某个像素p来说,一般离像素p越近的像素对其影响也就越大(局部连接性);另外,根据自然图像的统计特性,某个区域的权值也可以用于另一个区域(权值共享性)。这里的权值共享说白了就是卷积核共享,对于一个卷积核将其与给定的图像做卷积就可以提取一种图像的特征,不同的卷积核可以提取不同的图像特征。概况的讲,卷积层的计算方法就是根据公式
conv=σ(imgMat∘W+b)(1)conv=\sigma (imgMat\circ W+b) (1)
其中”σ\sigma ”表示激活函数;”imgMatimgMat”表示灰度图像矩阵; ”WW”表示卷积核;”∘\circ ”表示卷积操作;”bb ”表示偏置值。
二、举例说明
下面用一个具体例子来详细说明卷积层的计算过程。用到的图像为lena图像,如图1所示;卷积核为Sobel卷积核,如图2所示。
图1 Lena图像(512x512)
图2 Sobel卷积核(Gx表示水平方向,Gy表示垂直方向)
1、首先用Sobel—Gx卷积核来对图像做卷积,即公式(1)中的imgMat∘WimgMat\circ W
这里卷积核大小为3x3,图像大小为512x512如果不对图像做任何其它处理,直接进行卷积的话,卷积后的图像大小应该是:(512-3+1)x(512-3+1)。对卷积不懂的可以参考技术向:一文读懂卷积神经网络或其他读物。最终结果为:
图3 lena图像与Sobel—Gx卷积核的卷积结果
2、 将步骤1中所得结果(一个矩阵)的每个元素都加上b(偏置值),并将所得结果(矩阵)中的每个元素都输入到激活函数,这里取sigmoid函数如下式所示
f(x)=11+e−x(2)f(x)=\frac { 1 }{ 1+{ e }^{ -x } } (2)
最终结果如图4所示:
图4 卷积层所得到的最终结果
3、同理,
利用Sobel—Gy卷积核我们最终可以得到如图5所示的结果。
图5 Sobel—Gy卷积核卷积层所得到的最终结果
三、完整代码及结果
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
结果
1、Sobel—Gx卷积核结果
2、Sobel—Gy卷积核结果
四、小结。
以上计算过程,我们只用了两个卷积核。可以看出两个卷积核提取出了不同的图像特征。实际中,我们一般会使用十几个或者几十个卷积核来提取图像特征,进而来进行下一步的运算。
阅读全文
0 0
- 深度学习之cnn中第一层卷积层特征的显示
- 如何得到卷积层输出的深度--CNN卷积层
- CNN之卷积计算层
- 【深度学习】caffe之卷积层
- 深度学习---之卷积层与全连接层的区别
- 使用RNN模拟CNN中每个卷积层的关系
- 深度学习:CNN RNN DNN 区别 卷积层或是LSTM单元
- 深度学习笔记4:卷积层的实现
- 深度学习基础知识(4):卷积层的实现
- 干货 | 深度学习之卷积神经网络(CNN)的模型结构
- CNN中特征映射层(S2)有特征提取层(C3)特征映射是怎么作用的
- 【深度学习】Torch卷积层源码详解
- Tensorflow中卷积神经网络之卷积层
- cnn神经网络卷积层可视化
- CNN 卷积层和激活层
- 深度学习(DL)与卷积神经网络(CNN)学习随笔-05-基于Python的LeNet之CNN
- 深度学习(DL)与卷积神经网络(CNN)学习随笔-05-基于Python的LeNet之CNN
- 深度学习(DL)与卷积神经网络(CNN)学习随笔-05-基于Python的LeNet之CNN
- 微信小程序初探
- Hibernate的HQL
- HDU2019
- Joda-Time 简介
- java8 lambda表达式的简单介绍
- 深度学习之cnn中第一层卷积层特征的显示
- PostMan Test scripts使用方法
- 微信小程序中的MD5加密
- const,宏和内敛的使用
- WebRTC-Android 源码导读(三):视频硬编码实现分析
- 2017.11.08更新-最新PLA1.2/Guideline5.2.1被拒,官方审核人员解决方案
- fastDFS的安装(单机版)
- Linux网络相关
- Powerdesigner 中DataItem重用的问题