CNN学习(一)
来源:互联网 发布:oracle数据库分页查询 编辑:程序博客网 时间:2024/06/16 07:52
卷积:一组固定的权重和不同窗口内数据做内积
一、维度关系
input: m*m*k
filter: n*n*k (num)
zero-padding: p
stride: s
output width/height: (m-n+2*p)/s +1 depth:num
二、卷积层权值共享机制
不同区域,采用同一个filter权值
好处:1.训练参数减少,计算量下降,降低过拟合风险
2.每个filter权重不改变,符合某个个体看待某件事物“三观”不改变的性质
Conv + Relu
三、Pooling (无参数)
下采样过程,压缩特征
input: m*m*k(k个大小为m*m 的feature map)
pooling:n*n*k (n
参考七月在线CNN算法讲解
(1)filter(滤波器:带固定权重的神经元,可以是多维 m*n*k 长×宽×厚)的个数,等于输出的depth。每个filter只关注一个特性/特征
(2)数据预处理:减去训练集的均值。test同样也是减去train的mean
(3)stride决定filter的步长(决定有多少个滑动窗口)
(4)zero—padding(保证filter按照stride移动多次后刚好到边界 num=(L+2*padding)/stride+1)
(5)input层 一般三通道(RGB),假设depth=2,那么每个通道将会有两个filter,那么三个通道总共有3*2=6个filter,但是我们仍然习惯上说depth=2.只不过每一个filter的维度变成三维权重矩阵 m*n*3 ,即最后的3表示3个通道。
(6)对于output 几组filter就会输出几层 例如filter [5*5×3] ,每个通道的filter维度为5*5 ,后面的3表示三个通道
(7)y=W*x+b 每个通道的每个filter都会对原数据进行局部内积操作,然后三个通道的内积值求sigma再+阈值(bias)。形成第一层输出结果(feature—map)。第二层就是用每个通道的第二个filter进行类似操作。
(8)参数共享机制。同一个filter,滑动窗口时,数据在变,filter不变
引用理解:
“打个比方,某人环游全世界,所看到的信息在变,但采集信息的双眼不变。btw,不同人的双眼 看同一个局部信息 所感受到的不同,即一千个读者有一千个哈姆雷特,所以不同的滤波器 就像不同的双眼(有多少眼睛,就有多厚depth),不同的人有着不同的反馈结果。
(9)图像,局部关联性
- CNN学习(一)
- CNN学习(一)
- CNN学习(一)
- R-CNN学习之(一)-R-CNN编程前的准备工作
- Deep Learning学习笔记(一):卷积神经网络(CNN)
- 学习笔记 -- 斯坦福课程:CNN for Visual Recognition(一)
- 深度学习与CNN、RNN(一)(反向传…
- 卷积神经网络学习笔记(一):CNN概况
- 深度学习笔记(一)-CNN原理研究
- CNN学习(二)
- CNN卷积神经网络(一)
- CNN初探(一)------AlexNet
- CNN初探(一)------补充
- R-CNN系列(一)
- CNN学习笔记(1)
- 立体匹配CNN篇(一) :[LW-CNN] look wider to match image patches by cnn
- 【深度学习:CNN】深入理解CNN的细节 (1)
- CNN学习
- const
- C++ Primer学习笔记(unit 2 变量和基本类型
- Ubuntu 设置默认root模式登录
- ISBN码
- 爬虫模拟登录知乎
- CNN学习(一)
- reduce端join算法实现
- mongoose.model创建集合
- 大型网站架构总结
- Activity的启动流程
- Java线程Thread
- Backpropagation Algorithm
- 【树状数组--思维】poj 3928 pingpong
- 快速好写的求最长回文子串的代码(O(n^2))