LRN ( Local Response Normalization) 局部响应归一化层
来源:互联网 发布:医院网络建设方案 编辑:程序博客网 时间:2024/06/05 22:59
LRN ( Local Response Normalization) 局部响应归一化层
从网上找了很多博客,不知道为何就是不能把这个公式说的很透,可能是原理本身不好解释的原因,笔者希望能够用简洁的语言,能把LRN 解释的更加通俗易懂
- 首先在弄懂原理之前,希望读者能够认真的看两边公式,而不是直接看别人解释的原理
bix,y 是归一化后的值,i是通道的位置,代表更新第几个通道的值,x与y代表待更新像素的位置。aix,y 是输入值,是激活函数Relu的输出值- k、alpha、beta、n/2 都是自定义系数,读者可以先不用理会有什么用
总结的来说,是对输入值
N是总的通道数,不同通道累加的平方和,累加效果如下图。
累加多少个通道的像素值呢?这个是取决于自定义系数 n/2 如果读者熟悉tensorflow的话:官方文档API如下
sqr_sum[a, b, c, d] = sum(input[a,b, c, d - depth_radius : d + depth_radius + 1] ** 2)output = input / (bias +alpha * sqr_sum) ** beta
就是参数depth_radius设置;第一次看到文档介绍感觉到云里雾里的读者也不用担心,完全可以不理解api的介绍,只要知道累加多少个通道的像素值,取决于你的参数设置,至于设置为多少,那就多查看文献吧。
阅读全文
0 0
- LRN ( Local Response Normalization) 局部响应归一化层
- 深度学习的局部响应归一化LRN(Local Response Normalization)理解
- ImageNet中的LRN(Local Response Normalization)
- 【深度学习技术】LRN 局部响应归一化
- tensorflow下的局部响应归一化函数tf.nn.lrn
- local response normalization/batch normalization
- LRN归一化
- 基于FPGA的GoogleNet加速器-Local Response Normalization
- 数据标准化/归一化normalization
- Normalization(数据归一化)
- Batch Normalization 梯度归一化
- Batch Normalization 梯度归一化
- 归一化方法 Normalization Method
- 数据标准化/归一化normalization
- 数据标准化/归一化normalization
- LRN层的实现
- caffe中BatchNorm层和Scale层实现批量归一化(batch-normalization)注意事项
- 均值归一化处理(Mean normalization)
- Glide4使用说明
- WordPress是一个卓越的并安全的平台
- HTML5中的data-*属性和jQuery中的.data()方法使用
- 查看Linux磁盘容量,空间大小
- 分析诊断工具之一:MYSQL性能查看(多指标)
- LRN ( Local Response Normalization) 局部响应归一化层
- Ubuntu下配置SVN自动发送邮件通知
- Angular、React、Vue.js 等 6 大主流 Web 框架都有什么优缺点?
- Robot Framework: 自定义自己的python库
- Dubbo入门基础与实例讲解
- springboot_Springcloud干货
- linux命令
- jqyery dataTable 基本用法
- 什么是全量转储,什么是增量转储,各有什么优、缺点?