CNN学习(一)

来源:互联网 发布:oracle数据库分页查询 编辑:程序博客网 时间:2024/06/16 07:52

卷积:一组固定的权重和不同窗口内数据做内积

一、维度关系
input: m*m*k
filter: n*n*k (num)
zero-padding: p
stride: s
output width/height: (m-n+2*p)/s +1 depth:num
二、卷积层权值共享机制
不同区域,采用同一个filter权值
好处:1.训练参数减少,计算量下降,降低过拟合风险
2.每个filter权重不改变,符合某个个体看待某件事物“三观”不改变的性质
Conv + Relu
三、Pooling (无参数)
下采样过程,压缩特征
input: m*m*k(k个大小为m*m 的feature map)
pooling:n*n*k (n

参考七月在线CNN算法讲解

(1)filter(滤波器:带固定权重的神经元,可以是多维 m*n*k 长×宽×厚)的个数,等于输出的depth。每个filter只关注一个特性/特征
(2)数据预处理:减去训练集的均值。test同样也是减去train的mean
(3)stride决定filter的步长(决定有多少个滑动窗口)
(4)zero—padding(保证filter按照stride移动多次后刚好到边界 num=(L+2*padding)/stride+1)
(5)input层 一般三通道(RGB),假设depth=2,那么每个通道将会有两个filter,那么三个通道总共有3*2=6个filter,但是我们仍然习惯上说depth=2.只不过每一个filter的维度变成三维权重矩阵 m*n*3 ,即最后的3表示3个通道。
(6)对于output 几组filter就会输出几层 例如filter [5*5×3] ,每个通道的filter维度为5*5 ,后面的3表示三个通道
(7)y=W*x+b 每个通道的每个filter都会对原数据进行局部内积操作,然后三个通道的内积值求sigma再+阈值(bias)。形成第一层输出结果(feature—map)。第二层就是用每个通道的第二个filter进行类似操作。
(8)参数共享机制。同一个filter,滑动窗口时,数据在变,filter不变
引用理解:
“打个比方,某人环游全世界,所看到的信息在变,但采集信息的双眼不变。btw,不同人的双眼 看同一个局部信息 所感受到的不同,即一千个读者有一千个哈姆雷特,所以不同的滤波器 就像不同的双眼(有多少眼睛,就有多厚depth),不同的人有着不同的反馈结果。
(9)图像,局部关联性

原创粉丝点击