【学习笔记1】吴恩达_卷积神经网络_第一周卷积神经网络(1)

来源:互联网 发布:剑网三苍云捏脸数据 编辑:程序博客网 时间:2024/05/16 00:34

一、卷积神经网络

1.边缘检测

不同的语言中表示卷积的函数不同,在Python中为在tensorflow里为

滤波器:垂直、水平边缘检测。



Sobel filter:其优点在于增加了中间一行元素的权重,即图像中间的像素点提高,会使结果的鲁棒(robust)性提高。

Scharr filter

通过反向传播方法得到九个数的滤波器,得到任意角度的边缘检测。将这九个数设为参数,让神经网络去学习它,得到较为低级的特征,如边缘特征


2.Padding

图片的大小为n*n,卷积大小为f*f,输出图片维度为(n-f+1)*(n-f+1),这样做的缺点:a.会使图片缩小;b.角落边的像素只被一个输出所碰触,意味着丢失很多边缘信息。为了解决这两个问题,需要在图像输入时,在图像四周做一圈填充(Padding),通常使用0作填充。将p=padding number=1,则图像变为(n+2p)*(n+2p),输出图像最终为(n+2p-f+1)*(n+2p-f+1),若f=3,p=1则输出图像像素等于原来图像像素即为Same convolution,同时削弱了缺点b的影响。

填充层数的不同,产生不同的卷积:

*当f=5时,p=2,输出与输入图像大小相同。

在卷积神经网络中f很少为偶数,当f为偶数时可能需要引入不对称填充,同时,如果f为奇数,会产生中心像素点,便于指出卷积所在位置。


3.卷积步长(stride)

改变步长,输出图像维度改变。

根据上图公式,若结果不是一个整数,向下取整数,这种方法要求卷积扫过的面积不包含填充层。


关于互相关和卷积的技术性建议:

在数学和技术中对于卷积的定义不同。在数学中,卷积是做元素乘积求和之前,将卷积进行沿竖直和水平轴的翻转;在深度学习的操作里我们进行的操作实际为互相关,不进行翻转操作,称作卷积操作。


原创粉丝点击