非监督特征学习与深度学习(十)----池化
来源:互联网 发布:mac安装ps软件教程 编辑:程序博客网 时间:2024/06/05 05:49
注:本文转载自https://github.com/ysh329/Chinese-UFLDL-Tutorial
因为github上的makedown格式显示的不够完全,看的非常不方便,因此放到CSDN上比较好查阅学习。
池化(Pooling)
池化:概述(Pooling: Overview)
在得到卷积特征后,下一步就是用来做分类。理论上,可以用提取到的所有特征训练分类器,分类器可以用如
为了解决这个问题,首先回顾一下卷积特征的“固定不变”属性(译者注:即“静态性”),这意味着在一个区域的有效性也可能适用在其它区域。因此,要描述一个大图像,一个自然的方法是在不同位置处对特征进行汇总统计。例如,一个方法是可以计算在图像中某一区域中一个特定特征的平均值(或最大值)。这样概括统计出来的数据,其规模(相比使用提取到的所有特征)就低得多,同时也可以改进分类结果(使模型不易过拟合)。这样的聚集操作称为“池化”,(根据具体的应用而选择池化方法)有时使用“平均池化”或“最大值池化”。
下面这幅图,展示了池化是如何在一幅图像上的
池化的不变性(Pooling for Invariance)
如果在选择池化区域的时候是选择图像上的连续区域,以及来自相同隐含单元生成的池化特征,那么,这些池化单元将会是“平移不变的”。这意味着哪怕是小的平移改变,相同(被池化过的)特征也是激活状态(译者注:不确定。“This means that the same (pooled) feature will be active even when the image undergoes (small) translations.”)。在很多任务中(例如,目标检测,语音识别等)平移不变特性是很必要的,即使图像被平移,但实际上样本(图像)的标记是一样的。举个例子,如果您正使用
正式的描述(Formal description)
正式地说,在获得了卷积特征后,就可以决定池化区域的大小了,比方说可以选择
在下一节,将会进一步讲解如何将这些特征“池化”到一起,以得到更好的分类特征。
- 非监督特征学习与深度学习(十)----池化
- 非监督特征学习与深度学习(九)----使用卷积进行特征提取
- 非监督特征学习与深度学习(五)----Softmax 回归(Softmax Regression)
- 非监督特征学习与深度学习(一)----线性回归
- 非监督特征学习与深度学习(二)----逻辑回归
- 非监督特征学习与深度学习(三)----向量化
- 非监督特征学习与深度学习(四)----调试:梯度检查
- 非监督特征学习与深度学习(七)----多层神经网络
- 非监督特征学习与深度学习(八)----神经网络向量化
- 非监督特征学习与深度学习(十一)----优化方法:随机梯度下降
- 非监督特征学习与深度学习(十二)---- 卷积神经网络
- 监督学习与非监督学习
- 监督学习与非监督学习
- 监督学习与非监督学习
- 监督学习与非监督学习
- 监督学习与非监督学习
- 监督学习与非监督学习
- 监督学习,非监督学习与半监督学习
- C语言经典算法100例
- 购买搬瓦工 VPS 服务器
- uva 11584 Partitioning by Palindromes (动态规划)
- GDI+ 的使用
- 扫地僧身份解析
- 非监督特征学习与深度学习(十)----池化
- Maven 知识梳理
- 杭电acm2037:尽可能多的看电视节目
- 题目:和为n连续正数序列。
- Kaldi特征提取之-VAD
- Depth Map Prediction from a Single Image using a Multi-Scale Deep Network
- Linux前言
- 开放android的root权限
- 统计英文字母、空格、数字和其他字符的个数