CNN卷积神经网络笔记
来源:互联网 发布:安徽南瑞继远 知乎 编辑:程序博客网 时间:2024/05/22 06:20
来源:CS231n,知乎。
网址:
https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit
https://study.163.com/course/courseMain.htm?courseId=1003223001
1.卷积神经网络的结构
(1) 数据输入层/ Input layer
(2) 卷积计算层/ CONV layer
(3) 激励层 / Activation layer
(4) 池化层 / Pooling layer
(5) 全连接层 / FC layer
(6) Batch Normalization层(可能有)
(图片来源:CS231n)
2. 数据处理方式
(1) 去均值 :把输入数据各个维度都中心化到0
(2) 归一化 :幅度归一化到同样的范围
(3) PCA/白化 :白化是对数据每个特征轴上的幅度归一化
3.卷积层
3.1 概述
卷积层的参数是有一些可学习的滤波器集合构成的。每个滤波器在空间上(宽度和高度)都比较小,但是深度和输入数据一致。举例来说,卷积神经网络第一层的一个典型的滤波器的尺寸可以是5x5x3(宽高都是5像素,深度是3是因为图像应为颜色通道,所以有3的深度)。在前向传播的时候,让每个滤波器都在输入数据的宽度和高度上滑动(更精确地说是卷积),然后计算整个滤波器和输入数据任一处的内积。当滤波器沿着输入数据的宽度和高度滑过后,会生成一个2维的激活图(activation map),激活图给出了在每个空间位置处滤波器的反应。直观地来说,网络会让滤波器学习到当它看到某些类型的视觉特征时就激活,具体的视觉特征可能是某些方位上的边界,或者在第一层上某些颜色的斑点,甚至可以是网络更高层上的蜂巢状或者车轮状图案。
3.2 局部关联
3.3 卷积核的参数
3.4 参数共享
4.激励层
4.1 常见的激励函数:
(2)Tanh(双曲正切)
(3)ReLU
(4)Leaky ReLU
(5)ELU
(6)Maxout
4.2 选择激活函数
5.池化层
5.1 不使用池化层
6.全连接层
7.典型的CNN结构
- 卷积神经网络(CNN)笔记
- CNN卷积神经网络笔记
- CNN卷积神经网络学习笔记
- CNN卷积神经网络学习笔记
- 卷积神经网络(CNN)学习笔记
- kaldi学习笔记之卷积神经网络(CNN)
- 卷积神经网络(CNN)学习笔记
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- 卷积神经网络CNN基本概念笔记[转载]
- CNN卷积神经网络-笔记(未完)
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- CNN笔记:通俗理解卷积神经网络
- Java经典设计模式之五大创建型模式(附实例和详解)
- 感知哈希算法——找出相似的图片
- instruments 中 Time Profiler的使用说明
- webpack
- Redis哨兵集群
- CNN卷积神经网络笔记
- Linux基础知识
- 学习Android中疑惑的名词
- CHY Web 4 Qian Niu
- 软件网一周头条盘点(12.26-12.30)
- SpringCloud学习_1(注册中心)
- Android WiFi/WiFi热点开发总结
- 洞悉HR应用前沿趋势,引领未来制胜之道——专访朗新天霁总经理蒋建军
- django教程之十五-----国际化和本地化