卷积层感受野和坐标映射
来源:互联网 发布:买家怎么进入淘宝客 编辑:程序博客网 时间:2024/06/06 16:28
转载自http://blog.cvmarcher.com/posts/2015/05/17/cnn-trick/
如有版权问题,请联系博主删除本博客
Receptive Field (感受野)
这是一个非常重要的概念,receptive field往往是描述两个feature maps A/B上神经元的关系,假设从A经过若干个操作得到B,这时候B上的一个区域
在上图里面,map 3里1x1的区域对应map 2的receptive field是那个红色的7x7的区域,而map 2里7x7的区域对应于map 1的receptive field是蓝色的11x11的区域,所以map 3里1x1的区域对应map 1的receptive field是蓝色的11x11的区域。
那么很容易得出来,receptive field的计算公式如下:
- 对于Convolution/Pooling layer:
其中
- 对于Neuron layer(ReLU/Sigmoid/…)
Coordinate Mapping
通常,我们需要知道网络里面任意两个feature map之间的坐标映射关系,如下图,我们想得到map 3上的点
计算公式如下:
- 对于Convolution/Pooling layer:
其中
- 对于Neuron layer(ReLU/Sigmoid/…)
上面是计算任意一个layer输入输出的坐标映射关系,如果是计算任意feature map之间的关系,只需要用简单的组合就可以得到,下图是一个简单的例子:
Convolutionalize (卷积化)
最近掀起了FCN(全卷积网络)风,这种网络里面不包括全连接层(fully connected layer)。
卷积层跟全连接层的区别
卷积层的操作跟传统的滑窗(sliding windows)很相似,把kernel作用于输入的不同的区域然后产生对应的特征图,由于这样的性质,给定一个卷积层,它并不要求输入是固定大小的,它可能根据输入大小的不同而产生大小不一样的特征图。
全连接层的操作是把输入拉成一个一维的向量,然后对这一维的向量进行点乘,这就要求输入大小是固定的。
那么如果使用一个包含fc层的模型(如AlexNet)就必须使用固定大小的输入,其实有时候这是非常不方便以及不合理的,比如下图,如果我要把红框的塔输入网络,就必须得对它进行变成,假设是放到AlexNet里面,因为输入是224x224,那么就会对图片产生变形。
那么有没有办法使得网络可以接受任意的输入?实际上是可以的,只需要把全连接层变成卷积层,这就是所谓的卷积化。这里需要证明卷积化的等价性。直观上理解,卷积跟全连接都是一个点乘的操作,区别在于卷积是作用在一个局部的区域,而全连接是对于整个输入而言,那么只要把卷积作用的区域扩大为整个输入,那就变成全连接了,我就不给出形式化定义了。所以我们只需要把卷积核变成跟输入的一个map的大小一样就可以了,这样的话就相当于使得卷积跟全连接层的参数一样多。举个例子,比如AlexNet,fc6的输入是256x6x6,那么这时候只需要把fc6变成是卷积核为6x6的卷积层就好了。
- 卷积层感受野和坐标映射
- 卷积层感受野和坐标映射
- (转载)感受野和坐标映射的计算,以及卷积层跟全连接层的区别
- 计算各种网络结构的卷积层和返回的感受野
- dilated conv带孔卷积、pooling层提高感受野 反卷积 的理解
- 卷积网络之感受野
- 纹理映射和坐标
- 卷积神经网络池化层和卷积层作用
- 卷积神经网络的卷积层和池化层
- 卷积层和池化层学习
- CNN 卷积层和激活层
- 初窥卷积网络感受野
- 坐标空间和映射模式
- 卷积神经网络卷积层和池化层学习、权值共享!!
- 卷积神经网络_(1)卷积层和池化层学习
- 卷积神经网络基础卷积层和池化层学习#####好好好
- 卷积神经网络_(1)卷积层和池化层学习
- 卷积神经网络_(1)卷积层和池化层学习
- 23种设计模式(3)_创建型_抽象工厂模式(Abstract Factory Pattern)
- 文件上传
- Swift 可选类型
- T-Sql 递归查询(给定节点查所有父节点、所有子节点的方法)
- 【郑轻】[1675]YJJ的福利
- 卷积层感受野和坐标映射
- CSAPP:函数调用过程(ebp,esp)
- Android开发:15分钟学会Java正则表达式
- python数据可视化--散点图以及分类
- OpenStack-RPC-server的构建(三)
- Swift 数组
- .net发邮件
- UVa 10935 - Throwing cards away I
- C++学习:类成员的访问范围