梳理深度学习论文(一)
来源:互联网 发布:日语翻译哪个软件好 编辑:程序博客网 时间:2024/05/19 20:00
Alexnet
2013年 Hinton大牛提出
60 million parameters + 650000 neuron
五层卷积层(有些后面有池化层)+三层全连接层+1000路softmax层
提出了ReLU比tanh要快的说法
ReLU可以不需要进行归一化,但Local Response Normalization依然有帮助
将模型top1和top5的错误率分别降低了1.4%和1.2%。
标准化层的公式:overlapping pool(重叠池化):相邻的池化层之间有重叠部分
将模型top1和top5的错误率分别降低了0.4%和0.3%。
池化资料https://my.oschina.net/findbill/blog/550565GPU的使用
整体结构
输入图像(224*224*3)——96个卷积核(11*11**3,步长4)
公式(W-F+2P)/S+1(这里应该是(227-11)/4+1=55,是论文本身没说清)
卷积核的空间大小要小于输入,但是深度和输入数据保持一致。
第二层中55x55x96个神经元,每个都和输入数据体中一个尺寸为[11x11x3]的区域全连接。在深度列上的96个神经元都是与输入数据体中同一个[11x11x3]区域连接,但是权重不同。
如何降低过拟合?
- 数据增强:使用标签-保留转换,人为地扩大数据集
- Dropout:是以0.5的概率将每个隐层神经元的输出设置为零
0 0
- 梳理深度学习论文(一)
- 深度学习论文笔记之(一)HED边缘检测
- 深度学习论文随记(一)---AlexNet模型解读
- 深度增强学习(DRL)简单梳理
- RCNN论文详解(12)---《深度学习》
- 深度学习论文网址
- 深度学习论文
- 深度学习论文整理
- 深度学习论文笔记
- 【深度学习论文】FCN
- 深度学习论文:RCNN
- 深度学习论文:RCNN
- 深度学习相关论文
- 【深度学习论文】ResNet
- 深度学习论文综述
- 深度学习论文
- 【深度学习论文】Dispnet
- 深度学习论文roadmap
- save and load nueral network parameters when using python lasagne
- 图像特征提取
- computer version之手写字符识别初探——以matlab和python(tensorflow)分别示例(1)
- 线段树 区间覆盖 区间增加
- 算法训练 进制转换
- 梳理深度学习论文(一)
- 面试算法:用队列计算滑动窗口内的最大网络流量
- priority_queue(优先队列)的用法
- TCP/IP协议三次握手与四次握手流程解析
- 0-1背包问题
- 异常The last packet sent successfully to the server was 0 milliseconds ago...
- 如何进行数据分析(以kaggle新手赛为例)-1:
- 日本某地发生了一件谋杀案,警察通过排查确定杀人凶手必为4个嫌疑犯的一个。
- 电路布线问题